大家好,我是微笑哥。
這才剛剛開年,老黃在地球的另一邊,給我們國內的 AI 圈,拋出了一個相當有意思的信號。
稍微給大家介紹一下這個 CES,就相當于科技圈的春晚,是全球科技企業最重要的產品發布渠道。
在長達一個半小時的發布會里,老黃聊了 AI 的未來、聊了新架構 Rubin、聊了開源模型的爆發……唯獨一個名字,幾乎沒有談 Open AI 和 GPT。
其實過去幾年,老黃每次演講都把 Open AI 當“最佳配角”,拿 GPT 系列當標桿來襯托 NVIDIA 的芯片有多強。
但這一次,他直接把最核心的展示位,給了中國的開源模型:Kimi 和Deepseek。
![]()
這事兒背后的邏輯其實挺耐人尋味的。
我覺得倒不是老黃要捧中國,主要是在開源模型里面,現在做的稍微牛一點的全是中國的開源模型。
美國厲害的大模型幾乎都是閉源的,谷歌甚至都自己搞芯片了,某種意義上和英偉達都成了競爭關系。
而英偉達又把自己定義為世界的算力底座,從立場上來講以后,肯定會越來越站開源模型。
正如他在現場說的那樣:“當開源被激活時,AI將無處不在”,所以我們中國的這些開源模型自然就被推薦了。
至于為什么偏偏選擇Kimi和Deepseek ,而不是其他開源模型來展示他的芯片性能,答案也藏在這幾張PPT里的指標上。
第一,拿Kimi當極限測試的標尺。
大家可能還不知道,Kimi K2是全球第一個開源的萬億參數級別模型,在 AI 圈,萬億參數意味著它是對算力需求、訓練帶寬、顯存容量的極致考驗。而K2 Thinking又是推理模型中“Token消耗”的代表。
![]()
老黃把Kimi放在 PPT 上,就是為了證明新芯片不僅跑得動,推理吞吐量還飆升了10 倍,成本也降到了1/10。
可以說是用Kimi給自家芯片帶貨了,但也直接把 Kimi 送上了全球大模型的第一梯隊,算是互相成就吧。
第二,拿 DeepSeek 當低成本訓練的標尺。
DeepSeek這兩年在圈子里的標簽非常清晰:訓練效率、成本控制、工程化能力。老黃用它來做Benchmark,是講給那些猶豫要不要買卡的企業聽的。
他想證明的是:Rubin 架構配合 Deepseek 這種極致優化的算法,能把訓練成本打下來,幫各位老板們省錢。
總的來說,黃仁勛這一招可謂是借力打力,其實就是為了證明 Rubin 架構可以讓 AI 的訓練更省錢、推理更快、成本更低。
說實話,透過老黃的發布會,確實能看到一些風向的變化。
為什么?
過去幾年,我們聽得最多的是什么?“美國領先”“OpenAI 遙遙領先”“閉源巨頭才是王者”。
可現在風向真的在變。
至少在在英偉達的視角里,中國開源模型已經具備了全球范圍的“統戰價值”。
Kimi、Deepseek這些中國模型,已經不是“跟跑者”了。至少在某些關鍵工況上,已經能站到世界臺面,成為被選中的那一把尺子。
這也許才是這次 CES 最大的暗示:AI 的上半場是模型之爭,下半場則是生產力之爭。
上半場大家爭的是“模型誰更強”,但下半場爭的是什么?爭的是“誰能把 AI 變成真正的生產力”,爭的是“誰能把成本打下來、把推理做穩定、把生態鋪開”。
這個拼刺刀的階段,大概率是Kimi 和 DeepSeek 這種玩家的反超機遇。至于能不能借著這股東風,從“棋子”變成“棋手”,那就要看咱們國內這幾家廠商接下來的造化了。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.