← 所有文章
thought

為什麼 AI Agent 的記憶問題比你想的更難解決

為什麼 AI Agent 的記憶問題比你想的更難解決

「接下來的問題不是讓 AI 更聰明,而是讓它記得。」

這篇的核心觀點

我怎麼碰到這個問題的

我每天用 Claude 工作。有一次我花了一個小時跟 Claude 討論一個 API 設計問題。我們試了三種方案,兩種因為特定原因失敗,第三種成功但有條件。

第二天我開新對話繼續,Claude 建議了第一種方案——就是昨天已經證明行不通的那個。

它不是變笨了。它是失憶了。

拆解:為什麼「加大 context window」不是解法

Claude 現在有 100 萬 token 的 context window。多數人覺得這多就夠了。但 context window 是「短期記憶」,不是「長期記憶」。

短期記憶像是你正在看的這個螢幕。你看得見正在讀的字,但你三天前讀的文章?你需要「回憶」才能取出來。

加大 context window 像是給你一個更大的螢幕。但你三天前的記憶不會因為螢幕變大就自動出現。

而且更大的 context window 更貴。一個 50 輪對話輕鬆超過 2 萬 token。如果每次都把所有歷史塞進去,不只是慢和貴,AI 還會被不相關的資訊分散注意力。

「記得事實」 vs.「記得教訓」

這是我覺得最被忽略的區分。

大多數記憶工具(Mem0、Zep、LangChain Memory)解決的是「記得事實」:用戶名字叫什麼、上次討論了什麼、專案用什麼技術栈。這是語義記憶(semantic memory)。

但真正讓 AI agent 變強的是「記得教訓」:上次用方案 A 失敗了,原因是 X;每次處理這類問題時,先檢查 Y 會省很多時間;這個客戶偏好簡潔的回覆,上次寫太長被退回。

這是程序性記憶(procedural memory)和情節記憶(episodic memory)。目前大多數工具還沒做好。

一個記得「發生了什麼」的 agent 像實習生;一個記得「什麼行得通」的 agent 才像資深同事。

真正的難題是「檢索」,不是「儲存」

存記憶很簡單。難的是:在對的時機取出對的記憶。

如果把所有記憶都塞進每次對話,context window 會爆,而且 AI 會被不相關的記憶干擾。如果只根據關鍵字檢索,又可能漏掉「用字不同但相關」的記憶。

好的記憶系統需要「漸進式載入」:先載入静態身份(我是誰、我的角色),再語義搜索最相關的 3-5 條長期記憶,再載入近期專案筆記,最後填充對話歷史。這是一個分層架構,不是一個大資料庫。

這跟 OctoDock 有什麼關係

OctoDock 的三個核心定位之一就是「記憶層」。我們要解決的不是「存起來」,而是「跨 session、跨 agent、在對的時機取出對的記憶」。

現在 Mem0 拿了 2400 萬美金在做這件事。Zep 用時間圖譜來追蹤實體關係的變化。Hindsight 分離了「事實」和「信念」。這個領域正在快速演化。

但還沒有人把完整的模式——基於結果的教訓提取、信心度追蹤、衰減、跨 session 學習——做成生產工具。這是下一個突破點。

結論

AI 的下一個瓶頸不是智商,是記憶。誰先解決「記得教訓」而不只是「記得事實」,誰就能讓 AI agent 從「好用的工具」變成「可靠的同事」。

← 所有文章OctoDock 首頁 →