合作媒體

Yotta Labs推互通AI作業系統 解多雲環境運算瓶頸

商傳媒|責任編輯/綜合外電報導

隨著人工智慧(AI)技術的快速發展,GPU 的需求也急遽增加,AI 發展的主要瓶頸已從晶片轉向基礎架構。Yotta Labs 近日推出一款互通式 AI 作業系統,旨在解決多雲環境下 AI 運算資源的調度問題,將雲端供應商、GPU 類型和區域限制整合到單一可編程介面中。

據 VentureBeat 報導,Yotta Labs 認為,過往將多雲和多晶片環境視為獨立的系統,導致 AI 團隊在跨多個雲端、供應商和區域營運時面臨許多挑戰,例如效能不一致、難以移轉、營運成本增加等。為了解決這些問題,Yotta Labs 開發的作業系統將多雲和多晶片環境視為基礎,把異構基礎架構統一為單一系統,讓開發者能更專注於 AI 應用,而不需花費大量時間重建平台。

Yotta Labs 的解決方案也著眼於整合微型資料中心。該公司認為,AI 基礎架構的擴展速度超越了大型資料中心的建設速度,電力供應、冷卻需求和區域限制等因素日益突出。然而,許多中小型資料中心、區域設施和企業叢集卻存在未充分利用的運算能力。透過將這些微型資料中心整合到統一的運算結構中,可以釋放更多資源,讓 AI 團隊能夠透過一致的控制平台,存取地理位置分散的運算資源。

Yotta Labs 的執行長 Da Li 表示,AI 基礎架構的下一個階段,將不再是單純追求誰擁有最多的 GPU,而是取決於誰能跨雲端、區域和電力限制來協調這些資源。Yotta Labs 期望透過其互通性解決方案,成為多雲執行的預設 AI 作業系統,連接 AI 團隊和異構基礎架構。

對台灣的雲端服務供應商而言,Yotta Labs 的多雲 AI 基礎架構願景或許可帶來一些啟示。在 AI 應用日益普及的情況下,如何有效管理和調度分散在不同雲端平台的運算資源,將是提升競爭力的關鍵。台灣業者或可參考 Yotta Labs 的模式,建構更具彈性和互通性的 AI 基礎架構,以滿足不斷增長的 AI 運算需求。