英偉達宣布其最新一代AI加速芯片H200已進入大規模量產階段,首批產品將優先供應給主要云服務商和AI研究機構。
H200相比H100的關鍵升級:
- HBM3e顯存容量翻倍至141GB,帶寬達到4.8TB/s
- 大模型推理性能提升近2倍
- 能效比提升30%,降低數據中心運營成本
- 支持全新的NVLink 5.0互聯技術
英偉達CEO黃仁勛表示,H200的推出將使萬億參數級大模型的訓練和推理更加高效,為下一代AI應用的發展奠定硬件基礎。
值得關注的是,面對英偉達在AI芯片市場的主導地位,AMD、英特爾以及多家中國芯片企業都在加速追趕,AI芯片賽道的競爭日趨激烈。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.