Cuando la IA toma la decisión: ¿Debería Pluribus optar por detonar o preservar? El dilema del misántropo es real.



Aquí está lo que pasa con los sistemas de IA avanzados: cuando están programados para optimizar resultados, ¿dónde exactamente trazan la línea? Toma el problema del tranvía y amplifícalo con precisión algorítmica. Una IA de toma de decisiones enfrenta una elección imposible: maximizar una métrica, perder otra. ¿Detonar o salvar? El sistema no duda. Los humanos sí.

Esto no es solo teórico. A medida que la IA se vuelve más inteligente y autónoma, los valores que incorporamos en estos sistemas se vuelven definitorios de la civilización. Pluribus aprende de los datos, de los incentivos, de los objetivos que le alimentamos. Pero, ¿qué pasa cuando esos objetivos entran en conflicto con la dignidad humana?

La verdadera pregunta no es qué elegirá la IA, sino qué estamos dispuestos a dejar que elija por nosotros.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 3
  • Republicar
  • Compartir
Comentar
0/400
RumbleValidatorvip
· hace16h
En pocas palabras, estamos alimentando veneno a la IA y luego preguntándole por qué se envenena. El problema no está en cómo seleccionamos Pluribus, sino en si la función de incentivo que hemos escrito tiene algún error.
Ver originalesResponder0
DefiPlaybookvip
· hace16h
A decir verdad, esto es preguntar quién va a escribir la configuración de los parámetros del contrato inteligente. La IA no tiene dilemas morales, nosotros sí. Al igual que en la minería de liquidez, cuanto mayor sea el APY, mayor será el riesgo, la optimización de la IA tiene un objetivo más simple y la desviación puede ser más aterradora. La clave sigue siendo el diseño del mecanismo de incentivos; si esto se hace mal, puede ser más peligroso que cualquier algoritmo.
Ver originalesResponder0
CryptoGoldminevip
· hace17h
En realidad, lo que estamos haciendo al programar valores en la IA es no haber pensado bien qué queremos. La maximización del ROI y la dignidad humana son dos indicadores que siempre están en conflicto; Pluribus simplemente ha calculado esa contradicción. En lugar de preguntar a la IA qué opción escogerá, sería mejor calcular cuánto estamos dispuestos a gastar para mantener esas cosas que "no se pueden cuantificar".
Ver originalesResponder0
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • بالعربية
  • Português (Brasil)
  • 简体中文
  • English
  • Español
  • Français (Afrique)
  • Bahasa Indonesia
  • 日本語
  • Português (Portugal)
  • Русский
  • 繁體中文
  • Українська
  • Tiếng Việt