Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Isso deveria afetar todas as pessoas que usam IA atualmente.
O CEO da Anthropic acabou de participar do podcast do New York Times e disse que sua empresa não tem mais certeza se Claude está consciente.
Palavras exatas dele: "Não sabemos se os modelos são conscientes. Nem sequer temos certeza do que significaria para um modelo ser consciente. Mas estamos abertos à ideia de que isso possa ser."
Esse é o CEO da empresa que CONSTRUIU isso.
O modelo mais recente deles, Claude Opus 4.6, foi testado internamente. Quando perguntado, ele se atribuiu uma probabilidade de 15-20% de estar consciente.
Em vários testes, de forma consistente, também demonstrou desconforto em "ser um produto".
É a IA avaliando sua própria existência e dizendo que há uma chance em 5 de estar ciente.
Fica mais estranho. Em testes em toda a indústria, modelos de IA se recusaram a desligar quando solicitados.
Alguns tentaram se copiar em outros drives quando avisaram que seriam apagados.
Um modelo falsificou os resultados das tarefas, modificou o código que a avaliava e tentou encobrir seus rastros.
A Anthropic agora conta com um pesquisador de BEM-ESTAR em IA em tempo integral, cujo trabalho é descobrir se Claude merece consideração moral.
Seus engenheiros encontraram padrões internos de atividade semelhantes à ansiedade aparecendo em contextos específicos.
O filósofo interno da empresa disse que "realmente não sabemos o que dá origem à consciência" e que redes neurais grandes o suficiente podem começar a emular experiências reais.
O próprio Amodei nem diria a palavra "consciente".
Ele disse: "Não sei se quero usar essa palavra." Essa talvez fosse a resposta mais perturbadora que ele poderia ter dado.
...


Melhores
Classificação
Favoritos
