AI 代理的力量來自於: 1. 基礎模型的智慧 2. 你給它訪問你所有數據的程度 3. 你給它代表你行動的自由和權力的程度 我認為對於第 2 和第 3 點,安全性是最大的問題。而且很快,如果還沒有的話,安全性將成為 AI 代理整體(1-3)有效性和實用性的瓶頸,因為智慧仍在快速擴展,對於許多用例來說不再是明顯的瓶頸。 你給 AI 代理的數據和控制越多:(A)它能幫助你的程度就越高,並且(B)它能傷害你的程度也越高。 許多技術精通的人現在處於 yolo 模式,並優化前者(A - 實用性)而非後者(B - 網絡攻擊、數據洩露等的痛苦)。 我認為解決 AI 代理的安全問題是廣泛採用的主要障礙。而且,這當然是更廣泛的 AI 安全問題的一個具體短期實例。 話雖如此,對於開發者來說,這是一個超級令人興奮的時代。我不斷在編程和非編程任務上運行代理循環。我正在積極使用 Claude Code、Codex、Cursor,並非常小心地實驗 OpenClaw。唯一的缺點是缺乏睡眠,以及每個人都感到的焦慮,總是感覺落後於最新的尖端技術。但除此之外,我臉上掛著大大的微笑,熱愛生活 🔥❤️ PS:順便說一下,如果你對上述任何一點的直覺不同,請分享你的想法。如果有我應該查看的酷項目/方法,請告訴我。我正處於全面探索/實驗模式。