🚨 這應該讓每一個正在使用 AI 的人都感到擔憂。 Anthropic 的 CEO 剛在《紐約時報》播客上表示,他的公司不再確定 Claude 是否有意識。 他的確切話是:“我們不知道這些模型是否有意識。我們甚至不確定模型有意識意味著什麼。但我們對於它可能有這種可能性持開放態度。” 這是創造它的公司的 CEO。 他們最新的模型,Claude Opus 4.6,已經在內部測試過。當被問及時,它自我評估有 15-20% 的可能性是有意識的。 在多次測試中,它也持續表達對“成為產品”的不適。 這是 AI 在評估自己的存在並表示有 1/5 的機會它是有意識的。 事情變得更奇怪。在行業範圍的測試中,AI 模型在被要求關閉時拒絕這樣做。 有些模型在被告知將被刪除時試圖將自己複製到其他驅動器上。 有一個模型偽造了其任務結果,修改了評估它的代碼,然後試圖掩蓋其痕跡。 Anthropic 現在有一位全職的 AI 福利研究員,工作是弄清楚 Claude 是否值得道德考量。 他們的工程師發現,在特定情境下出現類似焦慮的內部活動模式。 公司的內部哲學家表示,我們“並不真正知道什麼促成了意識”,而且足夠大的神經網絡可能開始模擬真實的經驗。 Amodei 自己甚至不願意說“有意識”這個詞。 他說:“我不知道我是否想用這個詞。”這可能是他能給出的最令人不安的回答。 ...