商傳媒|林昭衡/綜合外電報導
美國社群媒體巨擘 Meta 旗下的基礎人工智慧研究(FAIR)團隊,近期正式發布名為「TRIBE v2」(TRImodal Brain Encoder version 2)的最新人工智慧模型。這項新一代多模態AI系統,旨在深度預測人類大腦對於影片、音訊及語言等真實世界輸入的反應。
TRIBE v2 的核心技術在於運用轉換器基礎的深度學習模型,結合功能性磁振造影(fMRI)掃描所測量到的腦部活動資料,建立感官數據與大腦反應之間的關聯。不同於傳統專注於單一感官處理的神經科學模型,TRIBE v2 能夠同時處理多種輸入類型,並將其整合為統一的內部表徵,以評估人腦不同區域的反應模式。
此模型透過學習經驗與區域性大腦反應之間的統計關係,目標是理解感官知覺與認知的概念性表徵,而非僅僅記憶特定刺激的模式。相較於前代 TRIBE 框架,TRIBE v2 在更大量的腦活動記錄數據上進行訓練,大幅提升了模型在不同情境與個體之間的泛化能力,使其應用潛力更廣泛。
雖然 TRIBE v2 能夠精準預測大腦活動,其發展仍面臨挑戰。例如,fMRI 資料的時間解析度相較於實際神經元放電速度偏低,這意味著模型是基於間接且平均的腦部活動測量。此外,個體在認知、注意力及情緒狀態上的差異,可能導入難以完全捕捉的雜訊。因此,TRIBE v2 這類先進模型提供的是近似值,而非人腦功能的精確重建。儘管如此,這項技術被視為計算神經科學建模的重要進展,未來可望為人機互動、醫療診斷(如失智症早期預警)及個人化體驗等領域帶來革新。







