為什麼 AI Agent 的記憶問題比你想的更難解決
「接下來的問題不是讓 AI 更聰明,而是讓它記得。」
這篇的核心觀點
- context window 變大不等於「記憶」,它是短期記憶,不是長期記憶
- 記憶不是存起來就好,難的是「什麼時候該想起什麼」
- 「記得事實」和「記得教訓」是兩件不同的事,大多數工具只解決了前者
- 這是 OctoDock 做「記憶層」的核心動機
我怎麼碰到這個問題的
我每天用 Claude 工作。有一次我花了一個小時跟 Claude 討論一個 API 設計問題。我們試了三種方案,兩種因為特定原因失敗,第三種成功但有條件。
第二天我開新對話繼續,Claude 建議了第一種方案——就是昨天已經證明行不通的那個。
它不是變笨了。它是失憶了。
拆解:為什麼「加大 context window」不是解法
Claude 現在有 100 萬 token 的 context window。多數人覺得這多就夠了。但 context window 是「短期記憶」,不是「長期記憶」。
短期記憶像是你正在看的這個螢幕。你看得見正在讀的字,但你三天前讀的文章?你需要「回憶」才能取出來。
加大 context window 像是給你一個更大的螢幕。但你三天前的記憶不會因為螢幕變大就自動出現。
而且更大的 context window 更貴。一個 50 輪對話輕鬆超過 2 萬 token。如果每次都把所有歷史塞進去,不只是慢和貴,AI 還會被不相關的資訊分散注意力。
「記得事實」 vs.「記得教訓」
這是我覺得最被忽略的區分。
大多數記憶工具(Mem0、Zep、LangChain Memory)解決的是「記得事實」:用戶名字叫什麼、上次討論了什麼、專案用什麼技術栈。這是語義記憶(semantic memory)。
但真正讓 AI agent 變強的是「記得教訓」:上次用方案 A 失敗了,原因是 X;每次處理這類問題時,先檢查 Y 會省很多時間;這個客戶偏好簡潔的回覆,上次寫太長被退回。
這是程序性記憶(procedural memory)和情節記憶(episodic memory)。目前大多數工具還沒做好。
一個記得「發生了什麼」的 agent 像實習生;一個記得「什麼行得通」的 agent 才像資深同事。
真正的難題是「檢索」,不是「儲存」
存記憶很簡單。難的是:在對的時機取出對的記憶。
如果把所有記憶都塞進每次對話,context window 會爆,而且 AI 會被不相關的記憶干擾。如果只根據關鍵字檢索,又可能漏掉「用字不同但相關」的記憶。
好的記憶系統需要「漸進式載入」:先載入静態身份(我是誰、我的角色),再語義搜索最相關的 3-5 條長期記憶,再載入近期專案筆記,最後填充對話歷史。這是一個分層架構,不是一個大資料庫。
這跟 OctoDock 有什麼關係
OctoDock 的三個核心定位之一就是「記憶層」。我們要解決的不是「存起來」,而是「跨 session、跨 agent、在對的時機取出對的記憶」。
現在 Mem0 拿了 2400 萬美金在做這件事。Zep 用時間圖譜來追蹤實體關係的變化。Hindsight 分離了「事實」和「信念」。這個領域正在快速演化。
但還沒有人把完整的模式——基於結果的教訓提取、信心度追蹤、衰減、跨 session 學習——做成生產工具。這是下一個突破點。
結論
AI 的下一個瓶頸不是智商,是記憶。誰先解決「記得教訓」而不只是「記得事實」,誰就能讓 AI agent 從「好用的工具」變成「可靠的同事」。