財(cái)聯(lián)社3月26日電,谷歌近日推出了一種可能降低人工智能系統(tǒng)內(nèi)存需求的壓縮算法TurboQuant。根據(jù)谷歌介紹,TurboQuant壓縮技術(shù)旨在降低大語言模型和向量搜索引擎的內(nèi)存占用。該算法主要針對(duì)AI系統(tǒng)中用于存儲(chǔ)高頻訪問信息的鍵值緩存(key-value cache)瓶頸問題。隨著上下文窗口變大,這些緩存正成為主要的內(nèi)存瓶頸。TurboQuant可在無需重新訓(xùn)練或微調(diào)模型的情況下,將鍵值緩存壓縮至3bit精度,同時(shí)基本保持模型準(zhǔn)確率不受影響。對(duì)包括Gemma、Mistral等開源模型的測(cè)試顯示,該技術(shù)可實(shí)現(xiàn)約6倍的鍵值緩存內(nèi)存壓縮效果。此外,在英偉達(dá)H100加速器上的測(cè)試結(jié)果顯示,與未量化的鍵向量相比,該算法最高可實(shí)現(xiàn)約8倍性能提升。研究人員也表示,這項(xiàng)技術(shù)的應(yīng)用不局限于AI模型,還包括支撐大規(guī)模搜索引擎的向量檢索能力。谷歌計(jì)劃于4月的國際學(xué)習(xí)表征會(huì)議(ICLR 2026)上展示TurboQuant技術(shù)。
![]()
![]()
谷歌推出壓縮算法TurboQuant
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.