合作媒體

Google TurboQuant提升AI效率 傑逢斯悖論預警記憶體需求仍高漲

商傳媒|責任編輯/綜合外電報導

Google Research 於 3 月 24 日宣布,已開發出一項名為 TurboQuant 的新型演算法,能以無損方式大幅壓縮大型語言模型(LLM)的鍵值快取(KV cache),最高可達 6 倍。這項技術不僅能將底層 AI 模型運算速度提升 8 倍,同時維持零精準度損失,被視為重新定義了 AI 效率的里程碑。

根據 Google Research 發布的說法,TurboQuant 演算法專注於優化 KV 快取,但值得注意的是,它並未壓縮模型本身的權重(model weights)。由於大型部署中的模型權重通常遠大於 KV 快取,這意味著模型尺寸本身維持不變。儘管如此,TurboQuant 的導入預期能顯著改善資料中心的推論(inference)相關經濟效益,使單一 AI 模型能處理更長的上下文視窗(context window),或讓更少量的圖形處理器(GPU)服務相同數量的使用者。

然而,儘管 TurboQuant 大幅提升了效率,業界分析人士對於記憶體市場的長期展望仍持謹慎態度。《Wccftech》指出,這與「傑逢斯悖論」(Jevons paradox)的影響息息相關。傑逢斯悖論指出,當某項資源的使用效率提升時,其消費量反而會因使用成本降低而增加。該報導推測,記憶體市場當前的低迷情勢,類似於 DeepSeek 在 2025 年初發布 R1 模型後所經歷的困境。

分析預測,傑逢斯悖論將持續發威,導致對記憶體資源的龐大需求居高不下。這也意味著,由於這種效率提升與需求增長之間的相互作用,當前記憶體供應吃緊的局面,乃至於因「記憶體通膨」(memory chipflation)帶動的消費電子產品(特別是智慧型手機)價格上漲,在短期內恐難以緩解。