一篇值得密切关注的论文。 它提出了无损上下文管理(LCM),重新定义了代理如何处理长上下文。 在长上下文任务中,它的表现优于Claude Code。 递归语言模型赋予模型完全的自主权来编写自己的记忆脚本。LCM收回了这种权力,将其交给一个确定性的引擎,该引擎将旧消息压缩成一个分层有向无环图(DAG),同时保留对每个原始消息的无损指针。在理论上表达能力较弱,但在实践中更可靠。 结果: 他们的代理(Volt,基于Opus 4.6)在OOLONG基准测试中,在32K到1M个标记的*每个*上下文长度上都击败了Claude Code。与Claude Code的+24.7相比,平均提高了29.2分。随着上下文的加长,差距进一步扩大。 这一含义是我们从软件工程历史中不断重学的:你如何管理模型所看到的内容可能比给模型工具让其自行管理更为重要。每个带有“让模型自己搞定”记忆策略的代理框架可能完全建立在错误的抽象之上。 论文: 在我们的学院学习如何构建有效的AI代理: