商傳媒|何映辰/台北報導
輝達(NVIDIA)於 3 月 16 日宣布推出 NVIDIA BlueField-4 STX 模組化參考架構,旨在協助企業、雲端及人工智慧(AI)供應商更便捷地部署加速儲存基礎架構,以滿足 Agentic AI 對於長脈絡推理的需求。此架構透過將資料保持在近端且易於存取的狀態,使 Agentic AI 工廠能夠在推論、訓練及分析方面實現更高的吞吐量和反應速度。
傳統資料中心雖具備高容量及通用儲存能力,但在回應速度上,無法與需要跨多個步驟、工具及會話工作的人工智慧代理程式無縫協作。Agentic AI 需要即時存取資料和脈絡工作記憶體,以保持對話和任務的快速及連貫性。隨著脈絡增長,傳統儲存和資料路徑可能會減緩 AI 推論並降低 GPU 利用率。
輝達創辦人兼執行長黃仁勳表示,Agentic AI 正在重新定義軟體的功能,而背後的運算基礎架構也必須隨之革新。他強調,能夠在大量脈絡中推理並持續學習的 AI 系統,需要一種新型儲存。NVIDIA STX 重新設計了儲存堆疊,為 AI 原生基礎架構提供模組化基礎,使 AI 工廠能夠以最佳效能運作。
BlueField-4 STX 由 NVIDIA Vera Rubin 平台加速,並採用針對儲存優化的 NVIDIA BlueField-4 處理器,該處理器結合了 NVIDIA Vera CPU 與 NVIDIA ConnectX-9 SuperNIC,以及 NVIDIA Spectrum-X 乙太網路、NVIDIA DOCA 和 NVIDIA AI Enterprise 軟體。與傳統 CPU 架構相比,STX 架構還可實現更高的能源效率,並為企業 AI 數據每秒擷取更多的頁面。
包括 AIC、Cloudian、DDN、Dell Technologies、Everpure、Hitachi Vantara、HPE、IBM、MinIO、NetApp、Nutanix、Supermicro、Quanta Cloud Technology(QCT)、VAST Data 和 WEKA 等儲存供應商,正在與輝達合作設計基於 NVIDIA STX 的下一代 AI 基礎架構。而 CoreWeave、Crusoe、IREN、Lambda、Mistral AI、Nebius、Oracle Cloud Infrastructure(OCI)和 Vultr 等領先的 AI 實驗室和雲端服務供應商,也計劃採用 STX 進行脈絡記憶體儲存。基於 STX 的平台預計將於今年下半年由合作夥伴推出。
據輝達表示,首個機架規模的實作包括新的 NVIDIA CMX 脈絡記憶體儲存平台,該平台透過高效能脈絡層擴展 GPU 記憶體,以實現可擴展的推論和 Agentic 系統,與傳統儲存相比,每秒可提供高達 5 倍的 tokens 傳輸量。此外,STX 體系結構還可實現比傳統 CPU 架構高 4 倍的能源效率,並能以 2 倍的速度擷取企業 AI 數據頁面。








