商傳媒|記者責任編輯/綜合外電報導
AI晶片龍頭輝達(NVIDIA)近期積極擴張推論市場版圖,據Groq官方公告指出,雙方已簽署非獨家的推論技術授權協議,Groq創辦人Jonathan Ross及核心工程團隊將加入輝達,協助導入語言處理加速器(Language Processing Unit,簡稱LPU)等相關技術。外界解讀此舉有望強化輝達在推論架構的整體表現,為未來晶片設計與軟硬體整合奠定新基礎。
根據科技媒體《Wccftech》報導與GPU分析社群推測,輝達下一代GPU平台代號為「Feynman」,可能採用1.6奈米製程、命名為A16。業界觀察者推估,未來版本的Feynman晶片若採用Groq的LPU架構,或有機會以3D堆疊方式整合SRAM與運算邏輯單元,藉由台積電(TSMC)SoIC混合接合技術進行垂直堆疊,以提升資料傳輸頻寬與運算效率。
知名GPU觀察者AGF指出,此一堆疊概念類似於AMD X3D架構,在主運算核心上方疊加SRAM或LPU晶片模組,並透過穿矽通孔(TSV)與Hybrid Bonding實現低延遲連結。該架構可望提升AI推論模型的暫存速度與回應效能,並降低高階製程因建構SRAM所帶來的面積與成本浪費問題。
然而,專家亦指出此設計恐將面臨技術挑戰。首先在散熱方面,堆疊LPU模組可能導致熱功率密度上升,需仰賴先進冷卻與封裝方案解決;其次,LPU的固定順序執行特性與輝達現行CUDA架構所支援的彈性運算流程存在差異,未來若要完全整合,勢必仰賴軟硬體協同優化。
儘管目前NVIDIA與Groq未公開進一步的技術整合時程與產品計畫,市場普遍預期,此次合作將助輝達在推論運算領域加強腳步,並與目前主打低功耗定制化加速器的Groq、Tenstorrent、Intel Gaudi等競爭者展開技術角力。
法人指出,此次非併購式的IP授權與工程團隊整合,展現輝達「滲透式整合」的布局策略,未來若成功將LPU設計導入Feynman平台,並透過台積電先進封裝技術量產落地,將進一步鞏固其AI推論供應鏈核心地位。Feynman平台能否維持CUDA生態系兼容性與架構彈性,也將是後續觀察焦點。








