![]()
整理 | 華衛
36 年來,半導體與軟件公司 Arm 一直將芯片設計授權給英偉達、蘋果等企業使用,如今終于開始自主研發并制造自有芯片。
在近日舉辦的發布活動上,該公司正式推出一款面向 AI 數據中心推理場景、可直接量產的處理器 Arm AGI CPU。這家英國企業基于自研 Neoverse 系列 CPU IP 內核,并與 Meta 合作完成了這款芯片的開發。
同時,Meta 也是 Arm AGI CPU 的首位客戶,該芯片專為與 Meta 的 AI 訓練及推理加速器協同工作而設計。Arm 的首批合作方還包括 OpenAI、Cerebras、Cloudflare 等多家科技公司。
市場對 Arm 轉型自研芯片的動向早有預期。據外媒報道,該公司早在 2023 年便啟動了芯片研發工作,目前相關處理器已開放訂購。
盡管此舉在預料之中,卻標志著 Arm 歷史性地打破了長期以來僅向其他芯片廠商授權設計的傳統模式。這家由日本軟銀集團控股的公司,未來將與眾多合作伙伴直接展開競爭。
Arm 選擇推出 CPU 而非 GPU,這一點同樣值得關注。
代理式 AI 基礎設施崛起
AI 系統正日益以全球規模持續運行。在過去,人是計算環節的瓶頸——人們與系統的交互速度決定了工作推進的速度。而在代理式 AI 時代,因為軟件智能體可自主協同任務、與多個模型交互,并實時做出決策,這種局限性將不復存在。
隨著 AI 系統持續運行且工作負載復雜度不斷提升,CPU 已成為現代基礎設施中決定運行節奏的關鍵要素——負責保持分布式 AI 系統大規模的高效運行。在現下的 AI 數據中心中,CPU 管理數千個分布式任務,包括協調加速器、管理內存與存儲、調度工作負載、跨系統遷移數據,加上當今的代理式 AI 場景興起,CPU 還需面向海量智能體實現大規模協同調度。
這一轉變對 CPU 提出了全新要求,驅動處理器架構的演進。
Arm Neoverse 現已成為當今眾多領先超大規模云服務及 AI 平臺的核心支撐,包括 Amazon Graviton、Google Axion、Microsoft Azure Cobalt 及 NVIDIA Vera 等。隨著 AI 基礎設施在全球范圍內不斷擴展,生態系統的合作伙伴紛紛期待 Arm 能夠提供更多能力。為應對這一變革,Arm AGI CPU 應運而生。
Arm AGI CPU:
專為機架級代理式 AI 效率而生
代理式 AI 工作負載需要在大規模場景下實現持續穩定的性能輸出。Arm AGI CPU 正是為此而設計,能夠在數千核心并行的持續高負載下,為每個任務提供高性能表現,且滿足現代數據中心功耗與散熱的嚴格要求。
從運行頻率到內存及 I/O 架構,Arm AGI CPU 的每一處設計都經過專門優化,在高密度機架部署場景下,支持大規模并行、高性能的代理式 AI 工作負載。
Arm 的參考服務器采用 1OU 雙節點設計,每臺刀片服務器中集成兩顆 CPU 芯片,并配備獨立內存與 I/O,共計 272 個核心。這些刀片服務器可在標準風冷 36 千瓦 (kW) 機架中滿配部署,30 臺刀片服務器可提供總計 8160 個核心。此外,Arm 還與 Supermicro 合作推出 200 千瓦 (kW) 液冷設計方案,可容納 336 顆 Arm AGI CPU,提供超過 45000 個核心。
在該配置下,憑借 Arm 架構的根本優勢,以及系統資源與計算能力的精準匹配,Arm AGI CPU 可實現單機架性能達到最新 x86 系統的兩倍以上:
Arm AGI CPU 具備業界領先的內存帶寬,使每個機架能夠支持更多高效執行的線程;相比之下,x86 CPU 在持續高負載下會因核心爭搶資源而導致性能下降;
高性能、高能效的單線程 Arm Neoverse V3 處理器 核心性能出眾,優于傳統架構——每個 Arm 線程可處理更多任務;
更多可用線程與更高單線程處理能力相互疊加,最終實現單機架性能的大幅提升。
Arm AGI CPU 已獲得合作伙伴的認可,這些合作伙伴均處于代理式 AI 基礎設施規模化部署的前沿領域。計劃部署場景涵蓋加速器管理、代理式 AI 協同調度,以及支撐代理式 AI 任務規模化擴展所需的服務、應用與工具的高密度部署,同時還包括為 AI 數據中心提供更強的網絡與數據面計算能力。
Meta 作為 Arm AGI CPU 的早期合作伙伴與客戶,參與該 CPU 的聯合開發,旨在為 Meta 全系應用優化吉瓦級規模基礎設施,并與 Meta 自研的 MTIA 加速器協同運行。其他首發合作伙伴包括 Cerebras、Cloudflare、F5、OpenAI、Positron、Rebellions、SAP 及 SK 電訊——這些企業均與 Arm 合作部署 Arm AGI CPU,以加速云、網絡及企業環境中的 AI 驅動型服務落地。目前,永擎電子、聯想及 Supermicro 已開放商用系統訂購。
為進一步加速產品采用,Arm 推出 Arm AGI CPU 1OU 雙節點參考服務器,該服務器采用符合開放計算項目 (Open Compute Project,OCP) 的 DC-MHS 標準規格設計。Arm 計劃向社區貢獻該參考服務器設計方案及配套固件,并進一步提供包括系統架構規范、調試框架及適用于所有 Arm 架構系統的診斷與驗證工具等資源。
圖形處理器(GPU)因承擔 AI 模型訓練與運行任務而備受矚目,而 CPU 在數據中心機架中同樣扮演著不可或缺的關鍵角色。Arm 在主推這款 CPU 時強調,此類芯片負責處理成千上萬項分布式任務,包括內存與存儲管理、任務調度、系統間數據傳輸等。該公司表示,CPU 已成為“現代基礎設施的節奏核心,保障分布式 AI 系統實現高效規模化運行”。
Arm 指出,這一趨勢對 CPU 提出了全新要求,也推動處理器必須迭代升級。
與此同時,全球 CPU 供應也日趨緊張。據外媒此前報道,今年 3 月,英特爾與 AMD 均告知中國客戶,受 CPU 短缺影響,產品交付周期將進一步延長。隨著短缺狀況加劇,電腦產品價格也已開始上漲。
https://techcrunch.com/2026/03/24/arm-is-releasing-its-first-in-house-chip-in-its-35-year-history/
會議推薦
OpenClaw 出圈,“養蝦”潮狂熱,開年 Agentic AI 這把火燒得不可謂不旺。在這一熱潮下,自托管 Agent 形態迅速普及:多入口對話、持久記憶、Skills 工具鏈帶來強大生產力。但這背后也暴露了工程化落地的真實難題——權限邊界與隔離運行、Skills 供應鏈安全、可觀測與可追溯、記憶分層與跨場景污染、以及如何把 Agent 納入團隊研發 / 運維流程并形成穩定收益。
針對這一系列挑戰,在 4 月 16-18 日即將舉辦的 QCon 北京站上,我們特別策劃了「OpenClaw 生態實踐」專題,將聚焦一線實踐與踩坑復盤,分享企業如何構建私有 Skills、制定安全護欄、搭建審計與回放機制、建立質量 / 效率指標體系,最終把自托管 Agent 從可用的 Demo 升級為可靠的生產系統。
今日薦文
你也「在看」嗎?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.