![]()
2 月 23 日,Anthropic突然發布一份報告,直接把矛頭對準DeepSeek、月之暗面、MiniMax。
- 核心指控只有一句話:你們用24000個賬號,沒日沒夜地給Claude發消息(1600萬次調用),專門獲取 Claude 的推理能力數據。
![]()
在他們看來,這不是普通的API使用,而是“工業級蒸餾”。
簡單說,不是簡單問答案,而是刻意誘導 Claude 把完整的“思考過程”一步步寫出來,然后把這些推理過程拿去訓練自己的模型。
如果這事兒是真的,那性質就變了。這不再是簡單的商業糾紛,而是蒸餾行為第一次被公開上升到安全層面。更微妙的是:報告發布當天,Anthropic的CEO正在五角大樓開會。
你看,【技術問題】瞬間就變成了【安全問題】。
AI也開始“盯防”AI了
- Anthropic報告里提到:
- (1)只要Anthropic發個新模型,MiniMax24小時內就能把一半的流量轉過去“爬取信息”。
- (2)月之暗面的一些請求元數據,是直接對應到了他們高級員工的社交賬號指紋。
- (3)DeepSeek雖然次數相對少:但專門讓Claude解釋推理過程,然后拿去喂自己的推理模型。
![]()
這些判斷均來自其單方技術分析報告。這說明:國內有一些AI公司有專門的“爬蟲團隊”,美國這邊發布會剛結束,那邊的爬蟲代碼就已經寫好了。
這意味著什么?美國的大模型公司,已經開始做“對手行為畫像”。AI不只對話用戶,AI也在分析AI。
硅谷真正害怕的,是“偷思路”
報告里最敏感的指控是:“思維鏈蒸餾”(Chain of Thought)。
- 什么意思?由于中國公司拿不到頂級芯片,就讓Claude把題都做一遍,然后把解題思路寫出來,這相當于:不只抄作業。還把老師的草稿紙復印回家。
如果屬實,這才是核心沖突。
為什么是現在?
這個時間點非常微妙,因為在報告發布當天,Anthropic的CEO正在五角大樓開會。時間點的重合,引發外界猜測。媒體也迅速把這件事從【技術爭議】推向【安全議題】。
當“蒸餾”被納入國家安全框架,規則就開始改變。未來API調用行為可能會更嚴的審查。
馬斯克:你們也干凈不到哪去
Anthropic的委屈: “我辛苦研發幾年,你們花點 API 錢就把我內功吸干了,這不公平!”
結果馬斯克在 X 上公開質疑:得了吧,你們自己也是靠抓全網數據訓練模型的。
![]()
馬斯克這話雖然糙,但理不糙。整個AI行業,起步階段誰沒在公開互聯網上“扒拉”過數據?就在去年(2025年),Anthropic自己還因為抓取盜版書,賠了作家們好幾億美金呢。
下一步,會不會限制API?
如果你的模型不好用,人家犯得著花幾百萬美金去薅你嗎?這反而從側面印證了Anthropic的產品好用。就像盧松松以前做站長一樣,最開始是 Ctrl+C和Ctrl+V,但想活得久,最后還得靠原創。
- 你可以說我抄了作業,但你不能說我沒交學費。畢竟那1600萬次調用,這三家公司可都是花了錢充值的。
問題在于:中國公司受限算力,美國公司封鎖芯片。所以從目前來看API跨境調用以后會被嚴格監控,國產模型會加速自研推理能力。
中國AI真的只會抄嗎?
我看未必。
如果你的作業寫得爛,誰會放著幾萬個賬號去薅你羊毛? 這事兒反倒說明,Claude在邏輯推理上確實是目前的“天花板”。
- 但現實也必須承認:蒸餾這事做不長久,當蒸餾被定性為安全問題,中美AI將進入各自為戰的階段了。
正在考驗的時刻到來了:萬一哪天美國的API徹底斷供或者不穩定了,咱們的國產模型,能不能完全靠自己,穩穩地站住腳跟?
![]()
盧松松是一位自媒體人、短視頻博主。也是創業者必看的賬號,關注草根創業圈、科技互聯網、自媒體和短視頻行業。感謝您的關注!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.