AI有了记忆会怎样大模型的记忆系统来了
AI不再只是个临时聊天工具,它开始拥有“记忆力”。来自中大、港科大、爱丁堡大学和华为研究中心的团队,对AI记忆机制做了一次系统综述,为我们重新理解“智能”打开了新视角。
研究指出,大语言模型(LLMs)正迈向长期交互的智能体形态,对“记忆”的需求也变得复杂:跨轮对话、多模态输入、个性化偏好等都需要支持。这背后必须依靠更完整的记忆系统。
作者从两个核心维度切入:记忆的表示和记忆的操作。记忆表示分为两类:
- 参数化记忆:模型内部的知识储备,能快速响应常识问题,但更新难、解释性弱;
- 上下文记忆:显式信息,包括非结构化(如文本、图像等多模态内容)和结构化记忆(如知识图谱),更灵活、可更新。
围绕这些记忆类型,研究定义了6种核心“原子操作”:巩固、更新、索引、遗忘、检索、压缩——AI的“记忆肌肉”就靠这些在动。详情请看文章