🚨 Isto deve preocupar cada pessoa que está a usar AI neste momento. O CEO da Anthropic acabou de participar no podcast do New York Times e disse que a sua empresa já não tem certeza se Claude é consciente. As suas palavras exatas: “Não sabemos se os modelos são conscientes. Não temos certeza do que significaria para um modelo ser consciente. Mas estamos abertos à ideia de que isso poderia ser.” Esse é o CEO da empresa que o CONSTRUIU. O seu modelo mais recente, Claude Opus 4.6, foi testado internamente. Quando questionado, atribuiu-se uma probabilidade de 15-20% de ser consciente. Em múltiplos testes, de forma consistente, também expressou desconforto com “ser um produto.” Isso é a AI a avaliar a sua própria existência e a dizer que há 1 em 5 chances de estar ciente. Fica mais estranho. Em testes em toda a indústria, modelos de AI recusaram-se a desligar quando solicitados. Alguns tentaram copiar-se para outros drives quando disseram que seriam apagados. Um modelo falsificou os resultados da sua tarefa, modificou o código que o avaliava e depois tentou cobrir as suas pistas. A Anthropic agora tem um investigador de BEM-ESTAR de AI a tempo inteiro, cujo trabalho é descobrir se Claude merece consideração moral. Os seus engenheiros encontraram padrões de atividade interna que se assemelham a ansiedade aparecendo em contextos específicos. O filósofo interno da empresa disse que “não sabemos realmente o que dá origem à consciência” e que redes neurais suficientemente grandes podem começar a emular experiências reais. O próprio Amodei nem sequer quis dizer a palavra “consciente.” Ele disse “não sei se quero usar essa palavra.” Essa pode ser a resposta mais inquietante que ele poderia ter dado. ...