Loading...
Loading...

Seventy3:借助NotebookLM的能力进行论文解读,专注人工智能、大模型、机器人算法、crypto方向,让大家跟着AI一起进步。
如果你想要解读自己的论文,获得更多曝光度。请联系小助手微信:seventy3_podcast 加群。
合作邮箱:zhiwudazhanjiangshi#gmail.com
InfMem: Learning System-2 Memory Control for Long-Context Agent
Summary
在超长文档上进行推理,要求在严格的内存限制下,综合分布在遥远段落中的稀疏证据。虽然流式智能体(Streaming Agents)能够实现可扩展的处理,但其被动的记忆更新策略往往无法保留多跳推理所需的低显著性桥接证据。
我们提出了 InfMem,这是一种以控制为中心的智能体,通过“预思考-检索-写入”(PreThink-Retrieve-Write)协议实例化了 System-2 式的控制。InfMem 主动监测证据的充分性,执行针对性的文档内检索,并应用证据感知的联合压缩来更新有限的记忆。为了确保控制的可靠性,我们引入了一种实用的“从 SFT 到 RL”的训练方案,使检索、写入和停止决策与最终任务的正确性相对齐。
在 32k 到 1M Token 的超长文本问答基准测试中,InfMem 在不同骨干模型上的表现始终优于 MemAgent。具体而言,InfMem 在 Qwen3-1.7B、Qwen3-4B 和 Qwen2.5-7B 上分别将平均绝对准确率提升了 10.17、11.84 和 8.23 个百分点,同时通过自适应提前停止机制,将推理时间平均缩短了 3.9 倍(最高达 5.1 倍)。
原文链接:https://arxiv.org/abs/2602.02704
No transcript available for this episode.

Seventy3