我將 "autoresearch" 專案打包成一個新的自包含的最小化倉庫,如果大家想在週末玩玩。它基本上是 nanochat LLM 訓練核心,簡化為單 GPU 的一個檔案版本,大約 630 行代碼,然後: - 人類在提示 (.md) 上進行迭代 - AI 代理在訓練代碼 (.py) 上進行迭代 目標是設計你的代理,使其能夠無限快速地推進研究,而不需要你自己的參與。在圖片中,每個點都是一個完整的 LLM 訓練運行,持續正好 5 分鐘。代理在 git 功能分支上以自主循環工作,並在找到更好的設置(最終的驗證損失更低)時,將 git 提交累積到訓練腳本中,這些設置包括神經網絡架構、優化器、所有超參數等。你可以想像比較不同提示、不同代理等的研究進展。 部分代碼、部分科幻,還有一點精神病 :)