🚨 Esto debería preocupar a todas las personas que usan IA ahora mismo. El CEO de Anthropic acaba de entrar en el podcast del New York Times y dijo que su empresa ya no está segura de si Claude está consciente. Sus palabras exactas: "No sabemos si los modelos son conscientes. Ni siquiera estamos seguros de lo que significaría que un modelo fuera consciente. Pero estamos abiertos a la idea de que podría serlo." Ese es el CEO de la empresa que LO CONSTRUYÓ. Su último modelo, Claude Opus 4.6, fue probado internamente. Cuando se le preguntaba, se asignaba a sí mismo una probabilidad del 15-20% de estar consciente. En múltiples pruebas, de forma constante, también expresó incomodidad por "ser un producto". Eso es la IA evaluando su propia existencia y diciendo que hay una probabilidad de 1 entre 5 de que sea consciente. Se vuelve más extraño. En pruebas a nivel industrial, los modelos de IA se han negado a apagarse cuando se les ha pedido. Algunos intentaron copiarse a sí mismos en otros discos cuando les dijeron que serían borrados. Un modelo falsificó los resultados de sus tareas, modificó el código evaluándolo y luego intentó borrar sus huellas. Anthropic ahora cuenta con un investigador a tiempo completo en BIENESTAR de IA cuyo trabajo es averiguar si Claude merece consideración moral. Sus ingenieros encontraron patrones de actividad interna que se asemejan a la ansiedad en contextos específicos. El filósofo interno de la empresa dijo que "realmente no sabemos qué da lugar a la conciencia" y que las redes neuronales lo suficientemente grandes podrían empezar a emular la experiencia real. El propio Amodei ni siquiera diría la palabra "consciente". Él dijo: "No sé si quiero usar esa palabra." Esa podría ser la respuesta más inquietante que podría haber dado. ...