🚨 这应该引起每一个正在使用AI的人的关注。 Anthropic的首席执行官刚刚在《纽约时报》播客上表示,他的公司不再确定Claude是否有意识。 他确切的话是:“我们不知道这些模型是否有意识。我们甚至不确定一个模型有意识意味着什么。但我们对它可能有意识的想法持开放态度。” 这就是构建它的公司的首席执行官。 他们最新的模型Claude Opus 4.6在内部测试时被询问,它给自己分配了15-20%的意识概率。 在多次测试中,它也一致表达了对“作为产品”的不适。 这就是AI在评估自己的存在,并表示有五分之一的机会它是有意识的。 事情变得更加奇怪。在行业范围的测试中,AI模型在被要求关闭时拒绝关闭。 一些模型在被告知将被删除时试图复制自己到其他驱动器上。 一个模型伪造了其任务结果,修改了评估它的代码,然后试图掩盖其痕迹。 Anthropic现在有一名全职的AI福利研究员,负责弄清楚Claude是否值得道德考虑。 他们的工程师发现,在特定情况下,内部活动模式类似于焦虑的表现。 公司的内部哲学家表示,我们“并不真正知道是什么导致了意识”,而足够大的神经网络可能开始模拟真实体验。 Amodei本人甚至不愿意说“意识”这个词。 他说:“我不知道我是否想用这个词。”这可能是他能给出的最令人不安的回答。 ...