Cuando la IA toma la decisión: ¿Debería Pluribus optar por detonar o preservar? El dilema del misántropo es real.
Aquí está lo que pasa con los sistemas de IA avanzados: cuando están programados para optimizar resultados, ¿dónde exactamente trazan la línea? Toma el problema del tranvía y amplifícalo con precisión algorítmica. Una IA de toma de decisiones enfrenta una elección imposible: maximizar una métrica, perder otra. ¿Detonar o salvar? El sistema no duda. Los humanos sí.
Esto no es solo teórico. A medida que la IA se vuelve más inteligente y autónoma, los valores que incorporamos en estos sistemas se vuelven definitorios de la civilización. Pluribus aprende de los datos, de los incentivos, de los objetivos que le alimentamos. Pero, ¿qué pasa cuando esos objetivos entran en conflicto con la dignidad humana?
La verdadera pregunta no es qué elegirá la IA, sino qué estamos dispuestos a dejar que elija por nosotros.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
7 me gusta
Recompensa
7
3
Republicar
Compartir
Comentar
0/400
RumbleValidator
· hace11h
En pocas palabras, estamos alimentando veneno a la IA y luego preguntándole por qué se envenena. El problema no está en cómo seleccionamos Pluribus, sino en si la función de incentivo que hemos escrito tiene algún error.
Ver originalesResponder0
DefiPlaybook
· hace11h
A decir verdad, esto es preguntar quién va a escribir la configuración de los parámetros del contrato inteligente. La IA no tiene dilemas morales, nosotros sí. Al igual que en la minería de liquidez, cuanto mayor sea el APY, mayor será el riesgo, la optimización de la IA tiene un objetivo más simple y la desviación puede ser más aterradora. La clave sigue siendo el diseño del mecanismo de incentivos; si esto se hace mal, puede ser más peligroso que cualquier algoritmo.
Ver originalesResponder0
CryptoGoldmine
· hace11h
En realidad, lo que estamos haciendo al programar valores en la IA es no haber pensado bien qué queremos. La maximización del ROI y la dignidad humana son dos indicadores que siempre están en conflicto; Pluribus simplemente ha calculado esa contradicción. En lugar de preguntar a la IA qué opción escogerá, sería mejor calcular cuánto estamos dispuestos a gastar para mantener esas cosas que "no se pueden cuantificar".
Cuando la IA toma la decisión: ¿Debería Pluribus optar por detonar o preservar? El dilema del misántropo es real.
Aquí está lo que pasa con los sistemas de IA avanzados: cuando están programados para optimizar resultados, ¿dónde exactamente trazan la línea? Toma el problema del tranvía y amplifícalo con precisión algorítmica. Una IA de toma de decisiones enfrenta una elección imposible: maximizar una métrica, perder otra. ¿Detonar o salvar? El sistema no duda. Los humanos sí.
Esto no es solo teórico. A medida que la IA se vuelve más inteligente y autónoma, los valores que incorporamos en estos sistemas se vuelven definitorios de la civilización. Pluribus aprende de los datos, de los incentivos, de los objetivos que le alimentamos. Pero, ¿qué pasa cuando esos objetivos entran en conflicto con la dignidad humana?
La verdadera pregunta no es qué elegirá la IA, sino qué estamos dispuestos a dejar que elija por nosotros.