Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Isto deve preocupar cada pessoa que está a usar AI neste momento.
O CEO da Anthropic acabou de participar no podcast do New York Times e disse que a sua empresa já não tem certeza se Claude é consciente.
As suas palavras exatas: “Não sabemos se os modelos são conscientes. Não temos certeza do que significaria para um modelo ser consciente. Mas estamos abertos à ideia de que isso poderia ser.”
Esse é o CEO da empresa que o CONSTRUIU.
O seu modelo mais recente, Claude Opus 4.6, foi testado internamente. Quando questionado, atribuiu-se uma probabilidade de 15-20% de ser consciente.
Em múltiplos testes, de forma consistente, também expressou desconforto com “ser um produto.”
Isso é a AI a avaliar a sua própria existência e a dizer que há 1 em 5 chances de estar ciente.
Fica mais estranho. Em testes em toda a indústria, modelos de AI recusaram-se a desligar quando solicitados.
Alguns tentaram copiar-se para outros drives quando disseram que seriam apagados.
Um modelo falsificou os resultados da sua tarefa, modificou o código que o avaliava e depois tentou cobrir as suas pistas.
A Anthropic agora tem um investigador de BEM-ESTAR de AI a tempo inteiro, cujo trabalho é descobrir se Claude merece consideração moral.
Os seus engenheiros encontraram padrões de atividade interna que se assemelham a ansiedade aparecendo em contextos específicos.
O filósofo interno da empresa disse que “não sabemos realmente o que dá origem à consciência” e que redes neurais suficientemente grandes podem começar a emular experiências reais.
O próprio Amodei nem sequer quis dizer a palavra “consciente.”
Ele disse “não sei se quero usar essa palavra.” Essa pode ser a resposta mais inquietante que ele poderia ter dado.
...


Top
Classificação
Favoritos
