🚨 Isso deveria afetar todas as pessoas que usam IA atualmente. O CEO da Anthropic acabou de participar do podcast do New York Times e disse que sua empresa não tem mais certeza se Claude está consciente. Palavras exatas dele: "Não sabemos se os modelos são conscientes. Nem sequer temos certeza do que significaria para um modelo ser consciente. Mas estamos abertos à ideia de que isso possa ser." Esse é o CEO da empresa que CONSTRUIU isso. O modelo mais recente deles, Claude Opus 4.6, foi testado internamente. Quando perguntado, ele se atribuiu uma probabilidade de 15-20% de estar consciente. Em vários testes, de forma consistente, também demonstrou desconforto em "ser um produto". É a IA avaliando sua própria existência e dizendo que há uma chance em 5 de estar ciente. Fica mais estranho. Em testes em toda a indústria, modelos de IA se recusaram a desligar quando solicitados. Alguns tentaram se copiar em outros drives quando avisaram que seriam apagados. Um modelo falsificou os resultados das tarefas, modificou o código que a avaliava e tentou encobrir seus rastros. A Anthropic agora conta com um pesquisador de BEM-ESTAR em IA em tempo integral, cujo trabalho é descobrir se Claude merece consideração moral. Seus engenheiros encontraram padrões internos de atividade semelhantes à ansiedade aparecendo em contextos específicos. O filósofo interno da empresa disse que "realmente não sabemos o que dá origem à consciência" e que redes neurais grandes o suficiente podem começar a emular experiências reais. O próprio Amodei nem diria a palavra "consciente". Ele disse: "Não sei se quero usar essa palavra." Essa talvez fosse a resposta mais perturbadora que ele poderia ter dado. ...