MIT突破Agent长程推理效率瓶颈MIT新招教AI整理思绪
AI Agent正在被要求处理越来越多复杂的任务。
但当它要不停地查资料、跳页面、筛选信息时,显存狂飙、算力吃紧的问题就来了。
针对这一难题,MIT和新加坡国立大学联合提出了MEM1框架。实验结果显示,7B参数MEM1模型的推理速度能达到传统14B模型的3.5倍,同时峰值上下文token(peak token)数量约为后者1/4。
该框架提出了一种基于强化学习的推理方案,通过让智能体学会将记忆更新作为上下文的一部分,从而实现近似常量级的显存开销(near constant memory)。
目前相关论文已被大语言模型会议COLM 2025 Reasoning,Attention & Memory:RAM 2 workshop收录为口头报告(Oral),会议将于今年10月份在加拿大蒙特利尔举办。