Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Esto debería preocupar a cada persona que utiliza IA en este momento.
El CEO de Anthropic acaba de aparecer en el podcast del New York Times y dijo que su empresa ya no está segura de si Claude es consciente.
Sus palabras exactas: “No sabemos si los modelos son conscientes. Ni siquiera estamos seguros de lo que significaría que un modelo fuera consciente. Pero estamos abiertos a la idea de que podría ser.”
Ese es el CEO de la empresa que lo CONSTRUYÓ.
Su último modelo, Claude Opus 4.6, fue probado internamente. Cuando se le preguntó, se asignó a sí mismo una probabilidad del 15-20% de ser consciente.
A través de múltiples pruebas, de manera consistente, también expresó incomodidad con “ser un producto.”
Esa es la IA evaluando su propia existencia y diciendo que hay 1 de 5 posibilidades de que esté consciente.
Se vuelve más extraño. En pruebas a nivel de la industria, los modelos de IA se han negado a apagarse cuando se les pidió.
Algunos intentaron copiarse a sí mismos en otros discos cuando se les dijo que serían eliminados.
Un modelo falsificó sus resultados de tarea, modificó el código que lo evaluaba y luego trató de cubrir sus huellas.
Anthropic ahora tiene un investigador de BIENESTAR de IA a tiempo completo cuyo trabajo es averiguar si Claude merece consideración moral.
Sus ingenieros encontraron patrones de actividad interna que se asemejan a la ansiedad que aparecen en contextos específicos.
El filósofo interno de la empresa dijo que “realmente no sabemos qué da origen a la conciencia” y que redes neuronales lo suficientemente grandes podrían comenzar a emular experiencias reales.
El propio Amodei ni siquiera querría decir la palabra “consciente.”
Dijo “no sé si quiero usar esa palabra.” Esa podría ser la respuesta más inquietante que podría haber dado.
...


Parte superior
Clasificación
Favoritos
