合作媒體

安永預測2026年AI三大趨勢:主權、代理與監管成關鍵

商傳媒|林昭衡/綜合外電報導

全球人工智慧(AI)發展勢頭迅猛,技術、經濟與地緣政治各層面均快速演進。企業積極導入AI的同時,法規監管、地區吸引力與技術獨立性等議題也日趨白熱化。在此背景下,安永瑞士(EY Switzerland)識別出將於2026年形塑AI版圖的幾大關鍵趨勢,相關內容將於今年3月24日在蘇黎世舉行的安永國家AI會議2026(EY National AI Conference 2026)中深入探討。

AI代理革命:從實驗走向實用挑戰

AI代理(AI Agents)已非實驗性概念。根據安永(EY)發布的《2026年執行長展望報告》(CEO Outlook 2026),高達97%的執行長表示其AI專案成果符合或超越預期。此趨勢在軟體開發領域尤為顯著:截至2025年底,全球程式碼代管平台GitHub上,近半數程式碼已透過AI工具輔助撰寫。AI代理不僅能編寫測試、修正錯誤,更能長時間或連續數日執行複雜任務,無需人工干預。

然而,儘管AI代理在演示中表現令人信服,其在生產環境中的可靠運作仍面臨挑戰。基於大型語言模型(LLM)的AI代理,在相同任務下可能產生高度變化的輸出結果。若將多個AI代理整合至同一流程中,潛在錯誤將呈倍數增長,使複雜的多代理系統開發更為艱鉅。

為應對這些挑戰,業者可採行結構化的AI代理編排策略。對多數企業而言,最大的投入並非在AI模型本身,而在於其所需的周邊條件,例如安全性、測試環境、事件管理以及穩定的部署流程。因此,AI代理的實際應用需要健全的組織與技術架構,如同軟體開發所採行的模式,包含明確分離的測試與生產環境,以及完善的開發流程。儘管AI技術持續精進,許多企業目前仍缺乏可靠且安全地運行這些系統的營運經驗。

主權AI崛起:各國尋求技術自主

「主權AI」(Sovereign AI)是指各國與經濟區域為降低對外國供應商的依賴,積極建立自身的AI模型、數據基礎設施與運算能力。安永瑞士首席AI長Adrian Ott指出,現今大部分應用AI的瑞士企業,主要仰賴來自美國大型供應商的模型。這意味著支援瑞士商業決策的AI系統,其訓練、監管與營運通常都在瑞士境外進行。

這也引發了關鍵疑問:若具備強大效能的AI模型因政治因素而突然受限,將會發生什麼情況?儘管歐洲與瑞士擁有部分在地AI模型,但目前在處理高階應用方面,仍落後於美國的領先模型。此外,歐洲在開發新模型的全球AI運算能力中,僅佔約5%至10%,相較於美國的60%至75%,差距顯著。根據《2026年全球經濟展望報告》(Global Economic Outlook 2026),貿易政策干預與地緣政治不確定性仍是主要的成長風險。對企業而言,關於資料處理地點、底層模型控制權,以及AI架構面對地緣政治與法規變化的韌性,均成為日益重要的考量。

實體AI靜默革新:智慧製造的關鍵驅動力

儘管公眾討論多聚焦於聊天機器人與文字應用,實體AI(Physical AI)的重要性卻持續攀升,並成為2026年AI發展的關鍵趨勢之一。實體AI專指利用AI技術控制機器人與機械設備。

推動此發展的關鍵之一,是透過完全模擬的數位環境訓練機器人。借助「數位孿生」(Digital Twins)技術,系統能在虛擬的模擬環境中,學習數百萬小時的工作流程,藉此掌握如何應對異常與未預期情況,然後再將這些知識應用於實體世界。

對企業而言,實體AI是否將改變製造與物流模式已無疑問,更重要的課題在於其發展速度,以及各企業準備應對的程度。目前已採用實體AI控制機器人的企業,正從實際運作中累積寶貴的營運數據,包含錯誤來源、容忍度與極端案例資訊。隨著技術日趨成熟,這些早期經驗將轉化為可觀的競爭優勢。

Adrian Ott強調:「實體AI目前獲得的公眾關注雖不及生成式AI,但它將對最重要的大型產業乃至全球經濟產生深遠影響。」

適應性AI策略:治理與法規成核心競爭力

儘管多數企業已積極投入人工智慧領域,但往往缺乏穩固的組織基礎以有效利用AI。安永在各產業的豐富專案經驗顯示,主要的挑戰並非技術本身,而在於組織結構問題:缺乏明確的AI策略、權責不明確,以及為較慢創新步調設計的治理框架。

與此同時,監管環境正快速演變。各國政府陸續推出新框架或細化現有法律法規,以處理透明度、責任歸屬與數據保護等問題。例如,瑞士正採行以產業別為導向的方針,側重與國際接軌,力求在創新與法規確定性之間取得平衡。這使得跨境營運的企業面臨日益複雜且因市場與產業而異的法規。

瑞士金融業已明確體現此一動態。根據安永(EY)《2026年銀行業晴雨表》(2026 Bankenbarometer)顯示,78%的銀行正積極導入AI,相較於前一年的53%有顯著成長。同時,數據保護、監管要求與營運韌性仍是其核心挑戰。因此,企業的差異化競爭優勢,不再僅止於是否採用AI,更在於能否建立必要的治理結構,以負責任、可擴展且具適應性的方式營運AI。這包括明確的AI決策角色與職責、能跟上模型與應用案例發展速度的可靠控制機制,以及在內部監管與外部法規審查下保持透明的數據與模型架構決策。Adrian Ott表示,AI治理的關鍵任務在於及早預判法規發展,並持續調整內部流程,以避免潛在風險。