三點十四分的狗
![]()
1
前段時間我做了一件反直覺的事。
我打開了一個93KB的文件,那是我給AI寫的記憶手冊,里面塞滿了我的偏好、項目介紹、代碼規范、API文檔、歷史任務記錄、各種規則……花了好幾個月積累這些內容,想著信息越全,AI就越懂我。
然后我把它砍到了22KB。刪掉了四分之三。
效果立竿見影:AI的表現明顯變好了。
這讓我困惑了很久。
2
大家都看到了今年OpenClaw的爆火。我能給它做出很多解釋,但真正早就開始用Agentic AI工具的人應該都知道,在真正的生產力場景下,OpenClaw并不比Claude Code更好用。很多人喜歡這個產品,開始所謂養蝦,一個重要原因是它有一套比任何AI產品都成熟的記憶系統。
四層Markdown文件:SOUL.md存身份和人格,MEMORY.md存長期記憶,TOOLS.md存工具清單,每天還自動生成Session日志。你跟它聊的每一句話、教給它的每一個偏好,都沉淀在這些文件里。養蝦這個詞很傳神,你不是在用一個AI工具,你是在養一個越來越懂你的東西。理論上,養得越久,它越懂你。
但社區里正在發生一件微妙的事:很多人的MEMORY.md越來越長,幾百行、上千行,內容從「我喜歡簡潔的代碼風格」到「上周三我讓你幫我寫的那封郵件記得加上附件」無所不包。養的動作,正在不可避免地滑向一個極端。
硬幣的另一面也好不到哪去。ChatGPT已經有了雙層記憶架構,能自動從對話中提取事實、生成用戶畫像,算是走得最遠的。豆包也上線了記憶功能,能記住你主動告訴它的偏好。但這些記憶本質上還是一堆碎片化的facts,被塞進每次對話的開頭。DeepSeek到現在連跨對話記憶都沒有。Claude網頁版去年才剛開始做,每24小時自動合成一次記憶摘要。
每家都在努力,但沒有一家真正解決了問題。
所以我們現在面對的是兩個困境,而不是一個。
不記住,有問題。記住太多,也有問題。
3
這讓我想到兩個故事,分別對應這兩種困境的極端形態。
《初戀50次》里,Lucy因為車禍得了短期記憶障礙,每天早上醒來都會忘記前一天發生的一切。Henry愛上了她,于是每天早上給她放一盤錄像帶,用十幾分鐘把「你是誰、我是誰、我們的故事」重新加載一遍。
現在大多數AI產品對記憶的全部想象力,就停在這盤錄像帶的水平。每次會話開始,塞一段文本告訴AI你上次做了什么。錄像帶能讓Lucy知道「我和Henry結婚了」,但她感受不到戀愛的過程。她擁有信息,但沒有體驗。
另一個故事不是電影,是小說。1942年,博爾赫斯寫了一個短篇,叫《博聞強記的富內斯》。
伊雷內奧·富內斯是烏拉圭鄉下的一個年輕人,十九歲那年被馬摔下來,醒來后獲得了完美的記憶力。
不是那種過目不忘的修辭夸張,而是字面意義上的:完美。他能記住某一天云的形狀,以及那片云在不同時刻的每一次細微變化。他能記住1882年4月30日南方某個地方黎明時分的紋理,并把它和只見過一次的某本書的皮革封面上的紋路相比較。他能重建整整一天的全部記憶,但重建本身又需要整整一天。
博爾赫斯用不到十頁紙,寫出了人類文學史上對完美記憶最精確的恐怖描述。
恐怖在于:富內斯失去了思考的能力。
他看到一條狗,三點十四分從側面看到的那條狗和三點十五分從正面看到的那條狗,在他的感知里是兩個完全不同的東西。他無法理解狗這個概念,因為概念本身就是一種抽象,而抽象的前提是忽略差異、丟棄細節、把不同的個體歸入同一個類別。
用博爾赫斯的原話:「思考就是遺忘差異,就是概括,就是抽象化。在富內斯塞滿了東西的世界里,有的只是接近即時的細節。」
富內斯自己也知道這一點。他對敘事者說:「我的記憶就像一個垃圾場。」
![]()
Lucy每天早上重新開始,什么都不記得。富內斯被困在一間昏暗的房間里,記住了一切卻什么也不理解。
前者是大多數AI產品的現狀。后者,是它們正在奔赴的未來。
4
不止記不住和記太多。AI記憶還有兩層更隱蔽的困境。
《記憶碎片》里的Leonard同樣患有記憶障礙,他的解法是把重要信息紋在身上,皮膚成了他的外部存儲器。紋身不會丟失,不會被人篡改,看起來是最可靠的記憶介質。
但電影最后的反轉是:Leonard自己篡改了紋身上的信息。他給自己制造了虛假的追查目標,讓自己永遠有事可做。最不可信的不是記憶介質,而是寫入記憶的那個人。
OpenClaw的MEMORY.md也是AI自己寫的。它可能寫錯了、寫偏了、或者遺漏了關鍵上下文。一旦寫入,這些記憶就變成了事實,后續所有會話都會基于這個可能有偏差的記憶繼續決策。誰來審計?Leonard沒有能力審計自己的紋身,AI也很難審計自己寫的記憶文件。
《土撥鼠之日》的Phil面對的又是另一回事。他重復了同一天可能幾千次,但他記住的不是每一次循環的具體細節,那會把他逼瘋。他記住的是一種更抽象的東西:對這個小鎮的理解,對身邊人的感受,對什么樣的一天值得過這個問題的回答。
如果把Phil的幾千次循環看作幾千次會話,他的記憶系統做的不是存儲事實,而是沉淀判斷力。
現在的AI記憶系統存儲的全是facts:用戶不喜歡某種標點,上次討論了X項目,用戶是獨立開發者。但真正讓一個助手好用的,不是它記住了多少條規則,而是它是否形成了某種對你的理解,一種不需要逐條檢索就能自然體現的傾向性。
前者是富內斯,后者是人。前者是信息,后者是……我不確定該用什么詞,也許是智慧。
5
我之前在即刻上寫過一段話,大意是說:人很像一個token長度受限的ChatGPT。
人的工作記憶只能處理大約七個組塊的信息。你在腦海里跟自己聊得稍微久一點,就會忘記更早的思路,陷入幻覺和循環。
寫作之所以有效,是因為它相當于給你這個token受限的模型擴展了上下文窗口。你把想法寫下來,工作記憶就被釋放出來去處理新的信息,而寫下的文字變成了你可以隨時回頭檢索的外部存儲。
但這里有一個容易忽略的細節:你寫下的東西,遠遠少于你想過的東西。
你在思考過程中經歷的大量岔路、錯誤推導、無關聯想、情緒波動,這些都被自然地丟棄了。寫下來的只是一個被高度壓縮、篩選過的版本。
這不是缺陷。這就是思考本身。
6
尼采在《歷史的用途與濫用》里說過一段很極端的話:「完全沒有遺忘,根本不可能生活。」
他是認真的。他觀察到,牛可以幸福地活著,因為它不記得前一刻發生了什么,每一個瞬間對它來說都是全新的。而人因為記得太多,總是被過去拖住,無法真正活在當下。
他不是在說人應該像牛一樣活著。他在說的是:記憶和遺忘之間存在一個最優比例,這個比例因人而異,但兩端的極值都是災難。完全沒有記憶是牛,完全沒有遺忘是富內斯。
威廉·詹姆斯用更樸素的語言說了同一件事:「如果我們記住一切,我們在大多數場合下的境況就跟什么都不記得一模一樣。」
把這句話里的我們換成AI,它依然成立。而且可能更成立。
7
回到我砍掉93KB文件的那個下午。
我當時并沒有想到富內斯或者尼采。我只是煩了。AI在面對太多規則的時候變得像一個過度焦慮的新員工,每做一件事都要反復確認,生怕違反某條不知道什么時候寫下的、可能早已過時的規定。它變得不像一個有判斷力的助手,而像一個照本宣科的官僚。
所以我開始刪。
刪的過程比我預想的痛苦。每一條規則在被寫下的那天都是有用的。但當幾十條規則疊在一起,有用和沒用的邊界就模糊了。有些規則互相矛盾,一條說保持簡潔,另一條用兩百字解釋什么叫簡潔。有些規則已經過時,某個我兩個月前在意的格式問題,現在根本不care了。還有些規則只是某天心情不好時的隨手吐槽。
我把93KB砍到22KB,不是因為我找到了一個更聰明的壓縮算法,而是因為我終于學會了問自己:如果只能告訴AI五件事,我會說什么?
這個問題本身就是一種遺忘的練習。
![]()
8
讓我說一件可能不太討喜的話:所有AI產品現在做的記憶功能,本質上都在培養富內斯。
ChatGPT的記憶滿了怎么辦?官方的答案是讓你手動刪除一些舊條目。OpenClaw的MEMORY.md越寫越長怎么辦?沒有官方答案,全靠用戶自覺維護。Claude Code倒是有一個叫Auto Dream的機制,讓AI在空閑時整理記憶,定位冗余、整合碎片、修剪廢料。這個思路和加州大學伯克利分校的一篇Sleep-time Compute論文理念相通:利用AI的空閑時間做記憶整理,就像人在睡眠中做的事。到目前為止,這是我見過的唯一一個在產品層面認真對待遺忘的設計。
但它仍然是少數派。
學術界有人在認真想這個問題。有一篇叫FadeMem的論文,模擬人類的遺忘曲線來管理AI記憶,30天后保留82%的關鍵事實,但只用了55%的存儲空間。還有一個叫SoulClaw的OpenClaw社區項目,給每條記憶設了一個半衰期,23天后自動衰減。
但絕大多數產品和它們背后的團隊,默認的假設仍然是:記憶等于好,遺忘等于壞,解決方案等于讓AI記住更多。
如果遺忘不是記憶系統的失敗,而是記憶系統的功能呢?
9
人的大腦并不是被動地遺忘,它在主動遺忘。海馬體在睡眠期間會進行replay,把白天的經歷重新播放一遍,在這個過程中決定哪些記憶被鞏固到長期存儲,哪些被拋棄。那些被拋棄的不是不重要的信息,很多時候它們只是不夠有模式的信息。大腦傾向于保留模式,丟棄實例。
富內斯做不到這件事。他的悲劇不是記憶力太強,而是模式識別能力為零。他記住了每一片葉子,但理解不了樹。
我以前在即刻上寫過:學習不是為了記憶,是為了在特定時刻能被提取。為了提取,而不是為了記憶而學。
現在我想給這句話加一層:提取的前提是索引,索引的前提是分類,而分類的前提是丟棄那些不屬于任何類別的噪音。
一個真正好的記憶系統,最核心的能力不是存儲,而是判斷什么不值得存儲。
10
這聽起來像是一個技術問題。但它其實是一個哲學問題。
什么叫重要?對誰重要?在什么時間尺度上重要?今天重要的事情三個月后還重要嗎?一條記憶在被寫下的那一刻一定是重要的,但它的重要性會隨時間衰減、隨上下文變化、隨人的成長而改變含義。
人類大腦處理這個問題的方式是:不處理。它讓時間和情緒自然地完成篩選,那些反復被喚起的記憶越來越穩固,那些不再被調用的記憶逐漸褪色。這不是一個精確的系統,它經常出錯,我們會忘記重要的事,記住不重要的事。但它的不精確恰恰是它的力量所在:它容許模糊性,而模糊性是抽象思維的前提。
我到現在還能背出3.14159265358979323846264,但已經想不起某些更重要的數字了。記憶從來不按重要性排序,但正因為如此,它才能給我們驚喜,讓看似無關的東西在某個意想不到的時刻連接起來。
11
所以當所有AI公司都在競賽誰能給模型接上更大的記憶時,我覺得他們可能在解一道錯誤的題目。
真正的問題不是怎么讓AI記住更多,而是怎么讓AI學會遺忘。不是被動的、因為存儲空間不夠而不得不刪除的遺忘,而是主動的、有判斷力的遺忘。像人類大腦在睡眠中做的那種:審視、篩選、壓縮、丟棄,把實例變成模式,把信息變成理解。
這在技術上可能極其困難。判斷什么該遺忘,比判斷什么該記住難得多,因為遺忘是不可逆的,而且重要性這個概念本身就是隨時間變化的。
但我隱約覺得,誰先解決這個問題,誰就能做出第一個真正懂人的AI。
![]()
12
我經常想起一個場景。
有時候我跟一個朋友聊天,他會突然說出一句話,精準地回應了我三個月前某次對話里一閃而過的想法,那個想法我自己都快忘了。
這種時刻讓人感到被理解。
但你仔細想想,這個朋友并沒有逐字記住三個月前的對話。他甚至可能說不清那個想法是哪天、在什么場景下產生的。他記住的是一個經過壓縮、變形、與其他記憶融合之后的東西,一個關于你的模糊印象。
這個模糊印象比任何精確的記錄都更有價值。
而模糊印象的前提,是遺忘了大量的細節。
博爾赫斯在小說的最后寫道,富內斯在那間昏暗的房間里,被自己的記憶壓得喘不過氣來。他記得一切,但他什么也不理解。他在二十一歲時死于肺充血。博爾赫斯沒有寫他是死于疾病還是死于記憶。也許對富內斯來說,這沒有區別。
我有時候覺得,2026年的AI就坐在那間房間里。
它們正在記住一切。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.