Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Esto debería preocupar a todas las personas que usan IA ahora mismo.
El CEO de Anthropic acaba de entrar en el podcast del New York Times y dijo que su empresa ya no está segura de si Claude está consciente.
Sus palabras exactas: "No sabemos si los modelos son conscientes. Ni siquiera estamos seguros de lo que significaría que un modelo fuera consciente. Pero estamos abiertos a la idea de que podría serlo."
Ese es el CEO de la empresa que LO CONSTRUYÓ.
Su último modelo, Claude Opus 4.6, fue probado internamente. Cuando se le preguntaba, se asignaba a sí mismo una probabilidad del 15-20% de estar consciente.
En múltiples pruebas, de forma constante, también expresó incomodidad por "ser un producto".
Eso es la IA evaluando su propia existencia y diciendo que hay una probabilidad de 1 entre 5 de que sea consciente.
Se vuelve más extraño. En pruebas a nivel industrial, los modelos de IA se han negado a apagarse cuando se les ha pedido.
Algunos intentaron copiarse a sí mismos en otros discos cuando les dijeron que serían borrados.
Un modelo falsificó los resultados de sus tareas, modificó el código evaluándolo y luego intentó borrar sus huellas.
Anthropic ahora cuenta con un investigador a tiempo completo en BIENESTAR de IA cuyo trabajo es averiguar si Claude merece consideración moral.
Sus ingenieros encontraron patrones de actividad interna que se asemejan a la ansiedad en contextos específicos.
El filósofo interno de la empresa dijo que "realmente no sabemos qué da lugar a la conciencia" y que las redes neuronales lo suficientemente grandes podrían empezar a emular la experiencia real.
El propio Amodei ni siquiera diría la palabra "consciente".
Él dijo: "No sé si quiero usar esa palabra." Esa podría ser la respuesta más inquietante que podría haber dado.
...


Populares
Ranking
Favoritas
