![]()
2023年,一臺M2 Ultra Mac Pro頂配賣7萬塊,現在官網直接404。蘋果把這條產品線連根拔起的同時,悄悄給外接顯卡開了綠燈——不是給游戲,是給AI。
TinyCorp的驅動過審那天,創始人George Hotz在X上發了條消息:「如果你有雷電或USB4外接顯卡盒,今天就是你們等了三年的那天。」
這句話的潛臺詞很直白:蘋果終于承認,自家芯片的AI算力天花板,靠插顯卡能捅破。
從"不支持"到"官方認證":蘋果態度的180度轉彎
Apple Silicon(蘋果自研芯片)剛發布時,外接顯卡(eGPU,External Graphics Processing Unit,外部圖形處理器)就被判了死刑。M1芯片的架構設計把PCIe通道鎖死,雷電口只能傳數據,不能跑顯卡。
用戶想插個AMD顯卡打游戲?系統直接不認。想繞過限制?得關掉SIP(System Integrity Protection,系統完整性保護),相當于給Mac敞開后門,風險自擔。
這次過審的TinyGPU驅動走的完全是另一條路。它不碰圖形輸出,專攻AI計算——你的顯示器還是接在Mac上,但訓練模型、跑大語言模型的活,全扔給外接的Nvidia或AMD卡。
支持名單很具體:macOS 12.1及以上,雷電3/4或USB4接口,AMD RDNA3代起(RX 7000系列),Nvidia Ampere架構起(RTX 30系列)。
AMD卡可以原生運行,Nvidia卡需要搭Docker Desktop走NVCC(Nvidia CUDA Compiler,英偉達CUDA編譯器)路線。配置門檻不高,但比即插即玩復雜一檔。
關鍵突破在于:不需要關SIP,不需要進恢復模式敲代碼,安裝后系統設置里點一下"允許"就能用。
對普通用戶這只是一步,對Mac生態這是蘋果首次官方認可外接算力擴展。之前社區折騰的補丁、內核擴展,隨時可能被系統更新封殺;現在TinyGPU進了白名單,穩定性有了底層保障。
實測數據:27B參數模型塞進Mac Mini
TinyCorp放出的測試用例很敢選——Qwen 2.5 27B,阿里開源的大語言模型,參數量270億。這個體量之前想跑在Mac上,得M3 Max起步還得看內存臉色。
現在一臺基礎款Mac Mini M4,外接一張RTX 4090,通過TinyGPU的tinygrad框架(一個輕量級深度學習框架)能把模型完整加載進顯存。推理速度沒公布具體數字,但官方用了"effectively"(有效運行)這個詞,暗示可用級別。
算力對比很直觀。M4的神經網絡引擎(Neural Engine)標稱38 TOPS(Tera Operations Per Second,每秒萬億次運算),一張RTX 4090的FP16(半精度浮點)算力是330 TFLOPS,差距接近一個數量級。
更關鍵的是顯存帶寬。Mac的統一內存架構被吹了很多年,但M4 Pro最高也就273GB/s;RTX 4090的GDDR6X(圖形用雙倍數據速率6X顯存)帶寬是1008GB/s,訓練大模型時這差距會放大成訓練時間的倍數差。
George Hotz在采訪里提過tinygrad的設計哲學:不做PyTorch(一個主流深度學習框架)的復制品,而是用更少的代碼做同樣的事。整個框架核心代碼約1萬行,相比之下PyTorch超過100萬行。輕量化意味著在資源受限的設備上更容易優化——比如Mac。
這套組合的真正價值,是把Mac從"AI消費端"變成"AI生產端"。之前開發者買Mac跑AI,多是調試代碼、管理云端實例;現在本地能訓能推,工作流程可以徹底離線。
Mac Pro之死與算力外包的新邏輯
時間線疊在一起看很有意思。TinyGPU過審的前幾周,蘋果官網撤掉了Mac Pro的產品頁,搜索直接跳轉到Mac首頁。14年只更新3代,最后一代M2 Ultra版本上市不到兩年,成了絕響。
傳聞中的M4 Ultra沒出現。供應鏈消息說芯片良率問題導致超大核心版本難產,但更可能的解釋是銷量撐不起一條產品線——專業用戶要的是可擴展性,蘋果給的是焊死的統一內存。
Mac Pro的死亡和外接顯卡的放行,其實是同一枚硬幣的兩面。蘋果放棄了自己造"AI工作站"的執念,轉而允許用戶用第三方硬件補缺口。
這套邏輯和iPhone的MagSafe(磁吸充電/配件接口)生態有點像:核心體驗我控死,邊緣需求你們自己加。區別是MagSafe賣的是配件授權費,eGPU賣的是Mac的入場券——你總得先有一臺Mac才能插顯卡。
對開發者群體的影響正在顯現。機器學習工程師@swyx在X上評論:「這意味著我可以把家里的游戲PC顯卡拆下來,插到Mac Mini上寫代碼,周末再插回去打游戲。」一卡兩用,硬件利用率拉滿。
更深層的變化是軟件生態。tinygrad框架之前主要在Linux(一種開源操作系統)社區活躍,現在有了官方支持的macOS版本。開發者用同一套代碼,可以在Mac本地調試、云端Linux服務器訓練、邊緣設備部署,跨平臺摩擦大幅降低。
誰該現在上車,誰該再等等
現階段TinyGPU的適用場景很明確:本地AI推理、中小規模模型微調、隱私敏感的數據處理(醫療、金融)。不適合的是需要多卡并聯的大規模訓練——驅動目前只支持單卡,且沒有NVLink(英偉達多卡互聯技術)支持。
成本賬要細算。一張RTX 4090現在市價約1.5萬,雷電顯卡塢2000-4000不等,加上Mac Mini M4基礎款4500,總投入2萬出頭。對比同價位能買到的Windows工作站,單卡性能接近,但Mac的功耗和噪音控制仍有優勢。
風險在于蘋果的長期承諾。驅動過審是第一步,后續macOS更新會不會打破兼容性,取決于蘋果和TinyCorp的合作深度。參考之前eGPU的歷史——蘋果2018年官方支持過一陣,2019年后逐漸冷淡——這次能持續多久,沒人敢打包票。
George Hotz的回應很典型:「我們開源了全部代碼,如果蘋果哪天反悔,社區可以自己維護。」tinygrad的GitHub倉庫確實完全公開,但內核驅動的簽名密鑰掌握在蘋果手里,這是真正的命門。
另一個變量是Nvidia的態度。Ampere架構的驅動支持是社區逆向的成果,Nvidia官方從未給Mac寫過驅動。RTX 40系列(Ada Lovelace架構)能否支持,取決于TinyCorp的逆向工程進度和蘋果的政策容忍度。
AMD路線更穩一些,RDNA3和即將推出的RDNA4都有開源驅動基礎。但AI生態的重心明顯偏向CUDA(Nvidia的并行計算平臺),ROCm(AMD的開源GPU計算平臺)的兼容性仍是硬傷。
現在最積極的用戶群體是兩類:已經買了Mac但算力不夠用的開發者,以及想進蘋果生態但被AI性能勸退的觀望者。對前者這是補救方案,對后者這是降低門檻的入口。
一個細節值得注意:TinyGPU的安裝流程里有一步,需要在終端運行腳本下載驅動。蘋果官方文檔里從沒教過用戶這樣做,但也沒阻止——這種"默許但不鼓勵"的姿態,是蘋果對第三方擴展的典型態度。
Mac Mini M4的電源適配器是內置的,整機功耗鎖在100W以內。外接RTX 4090后,顯卡塢單獨供電450W起步,桌面 suddenly 多了兩個電源 brick。這是蘋果設計哲學和實用主義妥協的物理痕跡。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.