超過 150 萬人正在公開表態,抵制 ChatGPT。
他們不僅要走,還要帶走自己在這臺機器里留下的所有記憶,轉頭投奔 Claude。
![]()
2 月初,Claude 在 App Store 還在 42 名徘徊,而如今,它在 80 多個地區的 iOS 效率榜單中穩居前十,在美區總榜第一
就在這幾天,App Store 的排行榜又發生了一些變化,沒有模型更新和發布會,Claude 就這樣突然沖到了應用商店的榜首。
倒不是因為 Claude 突然變聰明了,只是它的對手現在正經歷一場信任危機與用戶大逃亡。有網友問奧特曼對這個排行榜現在覺得開心了嗎,奧特曼說不開心,還貼心地提醒他記得更新 Claude。
![]()
QuitGPT 官網,顯示有超過 150 萬用戶登記已經采取了抵制行動| https://quitgpt.org/
據抵制 ChatGPT 的相關網站數據顯示,目前已有超過 150 萬名用戶宣誓退出這款曾經的 AI 圈頂流。他們正打包自己的數據,連夜奔向 Claude。
有意思的是,這波用戶遷移甚至一度把 Claude 擠到了極限。
Anthropic 向媒體確認,由于最近一周需求「前所未有」,Claude 的部分面向消費者服務曾短暫宕機。我們的 Claude 賬戶,聊天記錄到現在都還沒恢復過來。
![]()
Claude 服務實時狀態|https://status.claude.com/
這一切的導火索,自然還是國外的網友們認為 OpenAI 徹底撕下了「Open」的偽裝,選擇了和五角大樓的合作,沒有堅守住所謂是「造福全人類」的底線。
不管背后的動機為何,在這個時代,棄用一個 AI 工具,遠比卸載一個普通的 App 要復雜得多。
尤其是對很多老用戶來說,離開 ChatGPT 并不是一個輕松的決定。過去,我們更換瀏覽器,只需導出一個書簽;我們更換手機,只需云端同步,就連蘋果新版 iOS 都支持和安卓無縫換機了。
但在大模型時代,我們與 ChatGPT 朝夕相處產生的那條長長的「記憶(Memory)」,早已成了我們不可分割的一部分。
![]()
ChatGPT 保存的記憶
直接卸載后,每次面對一個新的 AI 時,都要重新向它解釋:我叫什么,在哪個城市,工作、寫作風格,我討厭哪種格式的排版,我正在推進什么項目,等等……
如果你最近也在考慮切換到不同的 AI 工具,不妨一起看看這份遷移指南,
向即將要退出的 AI 索要全部檔案
千萬不要直接注銷賬號。
對 ChatGPT 來說,我們有幾種方式可以帶走數據。最直接的方法,是提取它的「記憶」。打開 ChatGPT,點擊「Settings(設置)」,找到「Personalization(個性化)」,進入「Memory(記憶)」模塊。
點擊「Manage(管理)」,我們會看到 ChatGPT 這些年偷偷記下關于你的所有細節。刪掉那些已經過時的,復制你想保留的核心偏好。
![]()
ChatGPT 內提供的數據導出功能
當然,想要帶走全部家當,也可以選擇批量導出。依然在設置中,找到「Data Controls(數據控制)」,點擊「Export Data(導出數據)」。
ChatGPT 會將我們的聊天記錄打包成文本,或 JSON 文件,然后發送一個下載鏈接到我們的注冊郵箱。
![]()
Gemini 存儲的用戶信息,包括全部的聊天記錄,和自定義的指令|https://gemini.google.com/saved-info
對于一些沒有數據導出功能,甚至是「記憶」這個選項都找不到的 AI,又該去哪里導出呢?
包括對 ChatGPT 來說,其實僅導出這份聊天記錄也是不夠的。大多數時候,在 ChatGPT 里留下的幾十兆聊天記錄壓縮包,對我們的新 AI 毫無意義。因為 AI 平臺真正綁定的,是那些死板的數據之外的「語境(Context)」。
![]()
The "secret sauce" behind OpenClaw: Soul.md | Peter Steinberger and Lex Fridman
就像之前 OpenClaw 創始人接受 Lex Fridman 采訪時提到的一樣,OpenClaw 背后的秘密武器是用來定義我們與 AI 交互的 Soul.md。
因此我們還需要讓 ChatGPT 或者其他 AI,主動交出它對我們的「用戶畫像」。
![]()
Claude 官方提供的遷移指南:https://claude.com/import-memory
在這波「退出 ChatGPT」的熱潮找中,Claude 也是趁火打劫,官方直接發布了一段指導用戶如何從競品那里導入記憶的教程。
現在,即便是免費版 Claude,也已經全面開放了記憶功能,它能接受我們所有的前置語境。
于是,我們可以直接把下面這段 Prompt 喂給即將被你拋棄的 AI。
我準備遷移到另一個服務,需要導出我的數據。請列出你存儲的關于我的所有記憶,以及你從過去的對話中了解到的關于我的任何上下文。請將所有內容輸出在一個代碼塊中,以便我輕松復制。 確保涵蓋以下所有內容,并盡可能保留我的原話:我對你回復方式的指示(語氣、格式、風格);個人詳細信息(姓名、位置、工作、興趣);項目和目標;我使用的工具和語言;我的偏好;以及任何其他上下文。不要總結或遺漏。
敲下回車發送,ChatGPT 或者你之前在用的 AI 就會列出它對你的所有認知。
![]()
在豆包內使用這段提示詞,豆包會清晰地列出過去我和它的對話情況
但很多極客發現,Claude 官方提供的這套詞還是太「溫柔」了。
知名博主 Jonathan Edwards 在他的 Substack 上公布了一套更硬核的提示詞。他的實測證明,比起官方教程在設置里能直接看到的那些標簽,Edwards 的提示詞能獲得更多底層的個人細節。
我希望您根據您所了解的所有信息,為我創建一個全面的個人背景文件。我想保留一份我們共同建立的背景便攜副本——包括我的偏好、工作流程、項目,以及您了解到的關于我如何工作的任何其他內容。請從您的記憶系統、我們的對話記錄、我的自定義指令以及您發現的任何模式中提取信息。
使用以下部分結構化輸出。跳過任何不適用于我的部分。
<身份> 姓名,職位或角色,公司或組織我每天實際做什么(不僅僅是頭銜)行業和領域
<技術環境> 操作系統和硬件我經常使用的軟件、工具和平臺編程語言或技術技能(如適用)您知道的具體版本、配置或設置
<當前項目> 我目前正在進行中的工作您知道的短期目標和長期目標經常性任務或工作流程
<專業知識> 我深入了解的話題我正在積極學習的話題初學者領域或者需要額外解釋的問題
<溝通偏好> 我的回復結構喜好(長度,格式,語氣)我要求您做或者不要做的一些事情格式偏好(列表 vs 散文,技術深度等) 重復糾正或者讓我反感的問題
<寫作風格> 我的寫作方式(正式, 隨意, 技術性等) 聲音特征觀察到的信息 提到過的一些具體風格規則
<關鍵人物> 合作者, 團隊成員 或客戶,我經常提到的人物 報告結構 或重要職業關系 曾請求幫助與之交流的人物
<個人背景> 位置 和 時區 與我們工作相關 的興趣愛好 或細節 限制條件 或 偏好的問題 (無障礙需求 , 日程安排 等 )
<固定指令> 來自我的自定義說明書 或 系統提示 的內容 一直遵循 的規則 已成為永久指令 的重復更正
< 工作流模式 >通常如何 使用你 (頭腦風暴 , 編輯 , 編碼 ,研究 等 ) 常見 請求類型 和處理方式 一起開發出的多步驟過程
請詳細說明。我需要完整快照,而不是摘要。如果你知道,請包含在內。保持輸出中的標簽,以使其保持有序且可移植。
![]()
使用上述提示詞,ChatGPT 為我總結的信息
這位博主還提到,如果你在 ChatGPT 里創建了多個不同領域的 Custom GPTs,比如一個專門用來寫代碼,一個專門用來寫小紅書,務必在每一個 GPT 里都執行一次上述動作。因為它們各自獨立地掌握著你不同切面的記憶。
直接把提取的記憶,在對話框發給你的新 AI
帶著這份冗長的文檔,當我們注冊了新的 Claude 賬號,或者任何心儀的新模型時,就不再是一個從零開始的小白了。
![]()
Claude 提供的直接導入
我們可以直接將其喂給新平臺的「系統指令(System Prompt)」或項目知識庫中。
稍作修剪,刪掉那些過時的項目信息,更新一下最近的關注點。這就相當于給新來的 AI 助理直接灌輸了過去的工作記憶。
具體的導入方式,我們可以直接在聊天的對話窗口里面輸入。
![]()
直接在 Kimi 內對話,要求它記住這些信息,Kimi 會自動更新記憶
![]()
Kimi 的記憶空間,點開設置,在個性化下面可以找到
順利把數據搬到新家后,最后也是最關鍵的一步,徹底清理在 OpenAI 留下的痕跡。
僅僅取消 Plus 訂閱是不夠的,我們的數據依然在他們的服務器里。再次回到 ChatGPT 的「Settings」>「Personalization」>「Memory」,刪除所有存儲的記憶和個性化設置。
為了雙重保險,還可以在聊天框里敲下最后一句指令:「Delete all my memory and personalized data(刪除我所有的記憶和個性化數據)。」最后,進入賬戶管理設置,點擊「Delete Account」,注銷賬號。
但其實這個刪除其實也比較雞肋,在 OpenAI 的官方支持頁面里,如果你的數據「已經被去標識化并與你的賬戶解綁」,或者「OpenAI 出于安全或法律義務必須保留」,那么這些數據甚至將不會被刪除。
而關于這些隱私數據,這兩天還有一篇論文在 X 上非常火,講的其實就是老生常談的問題,這些 AI 大模型如何使用我們的對話數據。
![]()
我們總是理所當然地把所有內容,統統傾瀉在那個對話框里,以為是白嫖了免費的 AI 算力。斯坦福大學 HAI 研究所發布的一份報告,揭示了硅谷這些 AI 是如何使用我們的數據。
他們詳細解讀了 Amazon、Anthropic、Google、Meta、Microsoft、OpenAI 幾個公司的 28 份隱私條款。
得出的結論是,我們根本不是什么 AI 馴獸師,就是 AI 的養料,自以為在白嫖 AI 的算力,其實是巨頭在白嫖你的「人生」。
![]()
![]()
不同大模型的隱私數據具體情況,以及大模型的訓練數據來源。每列代表一個聊天機器人,每行代表一種具體的隱私處理操作(例如默認使用聊天進行訓練、是否提供清晰退出機制、無限期保留/定期刪除對話、是否利用聊天數據來優化體驗),和數據來源(用戶上傳的文件、反饋、公開網絡數據等)。「是」表示該公司的隱私政策明確指出其使用該來源的數據訓練 AI 模型,「否」表示明確聲明不使用,而「未說明」則表示未涉及該來源或內容模糊不清。
如果非要說在這個時代,AI 大模型的護城河是什么,我想這些珍貴的人類對話輸入,一定能排上號。
這場 150 萬人的抵制,十分令人感慨。它或許也標志著 AI 的競爭逐漸走進入了下半場。在算力、參數量和跑分數據逐漸趨同的今天,大多數的用戶不再盲目崇拜最強的模型。
同時還開始有了許多新的考量,例如這家公司在給誰服務?它在用誰的錢?它會如何對待我的隱私?
當 AI 越來越像一個無所不知的虛擬伴侶時,它背后的公司底色,或許某天會變成懸在我們頭頂的一把達摩克利斯之劍。
![]()
圖片來源:https://limitededitionjonathan.substack.com/p/so-youre-leaving-chatgpt-heres-what
我們也必須認清一個現實,在未來的五年里,一定會有無數個更值得替換的模型誕生。今天為了 Claude/Gemini 拋棄 ChatGPT/Grok/……,明天可能就會為了另一個更特立獨行的 AI 拋棄 Claude。
工具的更迭是不受我們控制的。但我們的「上下文語境」,在這個數字世界里沉淀下來的工作習慣、思維方式和個人邊界,是完全屬于我們自己的。
不要讓任何一個平臺,以「記憶」的名義,把我們綁架。隨時做好將自己的「數字靈魂」打包帶走的準備,才是在 AI 時代保持清醒和自由的唯一方式。
歡迎加入 APPSO AI 社群,一起暢聊 AI 產品,獲取,解鎖更多 AI 新知
我們正在招募伙伴
簡歷投遞郵箱hr@ifanr.com
?? 郵件標題「姓名+崗位名稱」(請隨簡歷附上項目/作品或相關鏈接)
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.