Loading...
Loading...

Seventy3:借助NotebookLM的能力进行论文解读,专注人工智能、大模型、机器人算法、crypto方向,让大家跟着AI一起进步。
如果你有自己的论文要解读,或者推荐论文,请留言。
AI Agents Need Memory Control Over More Context
Summary
AI 智能体正越来越多地被用于长期、多轮的工作流程中,无论是在科研还是企业环境中。随着交互轮数的增加,智能体的行为往往会逐渐退化,原因包括:约束目标逐渐失焦、错误不断累积,以及由记忆引发的行为漂移(drift)。这一问题在真实世界部署中尤为明显,因为上下文会持续变化、会出现各种干扰,而且决策需要在较长时间内保持一致。
一种常见做法是为智能体提供持久记忆,例如通过对话记录回放(transcript replay)或基于检索的机制(retrieval-based memory)。虽然这种方式实现起来比较方便,但它会导致上下文无限增长,并且容易受到**噪声检索和记忆污染(memory poisoning)**的影响,从而造成行为不稳定以及更严重的漂移问题。
在这项工作中,我们提出了 Agent Cognitive Compressor(ACC),一种受生物系统启发的记忆控制器。ACC 不再依赖完整对话记录回放,而是使用一个有界的内部状态(bounded internal state),并在每一轮交互时在线更新。ACC 的关键设计是将“信息检索(artifact recall)”与“状态承诺(state commitment)”分离:
这种机制既能提供稳定的条件信息,又能防止不可靠内容进入长期记忆。
我们使用一种由智能体评审(agent judge)驱动的实时评估框架来评估 ACC,该框架不仅衡量任务完成效果,还监测由记忆引发的异常行为,并在长时间交互中进行评估。
在多个应用场景中进行实验,包括:
结果表明,ACC 能够始终保持有界的记忆规模,并在多轮交互中表现出更稳定的行为;与使用对话回放或检索记忆的智能体相比,它显著降低了幻觉(hallucination)和行为漂移(drift)。
这些结果表明,认知压缩(cognitive compression)为长期运行的 AI 智能体提供了一种实用且有效的记忆控制基础。
原文链接:https://arxiv.org/abs/2601.11653

Seventy3