AI 永久记忆时代来了!ASMR 刷爆 99% 准确率,健忘症彻底被攻克
AI 终于告别 “鱼的记忆”,真正拥有永久记忆了!
近日,Supermemory 团队推出的超级记忆系统「ASMR」横空出世,在业界公认最严苛的 AI 记忆基准测试 LongMemEval 中,一举刷出 99% 的超高准确率,直接刷新 SOTA 纪录。这一突破不仅让全网直呼 “太疯狂”,更意味着困扰 AI 领域已久的 “健忘症” 难题,被彻底攻克。
数十亿 AI Agent 翘首以盼的记忆革命,正式拉开序幕,而这场革命的核心,是彻底抛弃了传统记忆框架的全新技术逻辑 ——不用向量数据库、无需嵌入模式,全内存运行,靠多 Agent 并行推理实现精准记忆与检索。更让人期待的是,ASMR 将于 4 月初开源全部代码,AI 记忆的 “大航海时代”,已触手可及。

回到正题~
从 85% 到 99%,刷新记忆测试天花板
LongMemEval 为何被称为 AI 记忆界的 “终极考卷”?因为它完全模拟真实生产环境的复杂场景:超 11.5 万 Token 的海量对话历史、相互矛盾的信息碎片、跨多会话的零散事件,还要完成高难度的时间推理,绝大多数记忆系统都栽在这份考卷上。
早在数月前,Supermemory 团队的首份研究报告,就已在 LongMemEval-s 测试中拿下 85% 的成绩,遥遥领先当时所有公开记忆系统。而此次 ASMR 的登场,直接将准确率推至 99%,近乎满分的成绩,让 AI 记忆能力实现了质的飞跃。
这份成绩的背后,是 ASMR 颠覆传统的技术路径:放弃了依赖向量数学计算的传统 RAG 框架,拒绝向量数据库和嵌入模式,全程在内存中运行,不仅让系统能轻松内嵌到各类应用、甚至机器人硬件中,更从根源上解决了传统记忆系统的核心痛点 ——检索噪音。
要知道,多数 AI 记忆系统的问题,从不是推理能力不足,而是检索时会带入大量无效信息,甚至无法区分 “旧信息” 和 “新修正”,让大模型难以有效利用数据。而 ASMR,正是为解决这一痛点而生。
3+3 多 Agent 并行,重新定义记忆检索逻辑
ASMR 的技术核心,是多 Agent 协同编排的流水线,用主动的 Agent 推理取代冰冷的向量计算,让 AI 的记忆检索,从 “机械匹配” 变成 “智能理解”。整个流程简单直白,却精准高效,分为「并行摄取」和「主动检索」两大核心环节。
观察者 Agent:3 路并行,六维精准提取信息
首先部署 3 个由 Gemini 2.0 Flash 加持的观察者 Agent,作为并行读取器同步工作,无需对用户对话做分块和嵌入,直接并发读取原始会话数据。它们会按照专属分工覆盖全部会话,比如 Agent1 负责 1、3、5 会话,Agent2 负责 2、4、6 会话,避免遗漏。
所有观察者 Agent 的核心目标,是围绕六大维度进行定向知识提取:个人信息、用户偏好、关键事件、时序数据、信息更新、助手信息,提取后的结构化数据会被 “原生存储”,并精准映射回源会话,为后续检索打下基础。
搜索 Agent:3 路专攻,主动推理验证细节
当接收到用户提问时,ASMR 不会去查询向量数据库,而是启动 3 个并行的搜索 Agent,主动阅读并推理已存储的结构化数据,每个 Agent 都有专属侧重点,实现精准检索:
-
Agent1:聚焦直接事实和明确陈述,快速抓取核心答案; -
Agent2:挖掘相关上下文、社交线索和潜在暗示,补充信息维度; -
Agent3:重建时间线和关系图谱,解决跨会话、跨时间的推理问题。
编排器会汇总 3 个搜索 Agent 的发现,并提取原文会话的逐字片段进行细节验证,让检索基于真实的认知理解,而非单纯的关键词或语义相似度匹配,从根源上剔除检索噪音。
双工作流加持,准确率再攀高峰
为了应对 LongMemEval 中种类繁多的问题,ASMR 还设计了两种截然不同的回答工作流,进一步提升准确率:
- 8 变体集群:将检索上下文路由给 8 个并行的专业化提示词变体,如精准计数器、时间专家等,只要任一推理路径得出正确答案,即判定为答对,实现 98.60% 的准确率;
- 12 变体决策森林:由 12 个 GPT-4o-mini 驱动的专业 Agent 独立回答,再由 “聚合大模型” 通过多数投票、领域信任度进行综合裁决,单一共识答案也能达到 97.2% 的准确率。
两种工作流的加持,让 ASMR 的整体准确率最终突破 99%,完美覆盖各类记忆检索盲区。
不止是刷榜实验,Supermemory 打造 AI 记忆基础设施
如果说 ASMR 是一次惊艳的技术突破,那其背后的Supermemory,才是团队真正的野心 —— 打造一套面向所有 AI 应用的记忆与上下文基础设施,让 AI 真正拥有 “记忆”,而非单纯的 “检索能力”。
记忆≠RAG,这是最核心的区别
传统 RAG 的本质是 “数据检索”,不认人、不辨新旧,比如你上个月说 “住北京”,这个月说 “搬上海”,RAG 会把两条信息都丢给大模型,让其自行判断;而 Supermemory 实现的是真正的 “记忆”,能主动提取事实、追踪信息变化、处理矛盾内容,甚至拥有自动遗忘机制。
它会识别出 “搬上海” 是对 “住北京” 的更新,只返回有效信息;更能对临时信息做时效管理,比如你说 “明天有考试”,日期过后这条记忆会自动失效,避免临时事实变成永久噪音,让 AI 的记忆始终清晰、高效。
50 毫秒搞定用户画像,AI 秒变 “老朋友”
Supermemory 不仅解决了 AI 的记忆问题,还把用户画像做到了自动化、轻量化。传统方案中,搭建用户画像需要手动维护标签、偏好、行为,而 Supermemory 会自动将用户信息拆分为两层:
-
静态事实:资深工程师、用 Vim、偏好暗色模式等固定属性; -
动态上下文:正在做认证模块迁移、在 debug 限流问题等实时状态。
只需一次 API 调用,50 毫秒内就能获取完整用户画像,将其注入 system prompt,AI 就能瞬间从 “陌生人模式” 切换到 “老朋友模式”,实现个性化交互。
全家桶连接能力,零配置兼容多场景
记忆的边界,不该只局限于对话。Supermemory 打通了 Google Drive、Gmail、Notion、OneDrive、GitHub 等全平台外部数据源,通过实时 Webhook 自动同步,支持 PDF 解析、图片 OCR、视频转录、代码 AST 级分块,文档上传后即可检索,全程零配置。
对于开发者而言,集成成本被压到最低:npm 装一个包,几行代码就能给自有 Agent 加上完整记忆能力;Vercel AI SDK、LangChain、OpenAI Agents SDK 等主流 AI 开发框架,全部有现成封装;甚至不用写代码,通过 MCP 服务器一行命令安装,就能在 Claude Desktop、VS Code 等工具中直接使用。
AI 记忆革命,让工具变搭档
过去几年,大模型的竞争集中在参数规模、推理速度、上下文窗口长度,可即便拥有 128K 的超大上下文窗口,一旦对话结束,数据就会被清空,下次交互依旧是 “初次见面”。
而记忆,正是让 AI 从冰冷工具变成贴心搭档的最后一块拼图。
当每一个 AI Agent 都能记住你是谁、你的偏好是什么、你上次说到了哪里、你正在做的事有哪些,人机交互的体验将迎来一次静悄悄的质变 —— 不是 AI 的推理能力突然变聪明了,而是它终于不再失忆,能基于持续的记忆形成专属的、有温度的交互。
Supermemory 团队用 ASMR 和背后的记忆引擎,把 AI 的 “工作记忆” 从一个附加功能,变成了一层通用基础设施。而随着 4 月初 ASMR 代码的开源,这场记忆革命将不再局限于少数团队,而是会蔓延到整个 AI 生态。
数十亿 AI Agent 即将拥有永久记忆,而这,只是开始。未来的人机交互,终将因 “记忆” 而不同。