商傳媒|責任編輯/綜合外電報導
隨著人工智慧(AI)企業在安全承諾上趨於彈性,將管理與應用風險轉嫁予部署AI模型的企業與政府,此趨勢已引發廣泛關注。專家指出,這項轉變源於AI產業日益激烈的競爭壓力,促使開發商將成長置於謹慎之上。
綜合《Capital Brief》等媒體報導,此轉變的具體案例,是知名AI開發商Anthropic近期已決定調整其「負責任擴展政策」。原先的嚴格承諾,現已放寬為更具彈性、以目標為導向的方針。此舉被視為AI產業內部競爭白熱化的結果,業者為了追求技術突破與市場佔有率,可能在安全標準上做出妥協。
蒙塔卡全球投資(Montaka Global Investments)創辦人兼投資長安德魯·麥肯(Andrew Macken)分析指出,即使是業界最重視安全的AI公司,也無法保證其模型百分之百安全,因此部署這些模型的組織,便需承擔相應的風險。這不僅是企業法務團隊的問題,更是向所有採用AI技術的組織發出的明確訊號:AI安全管理責任已轉移到他們身上。
麥肯進一步強調,這項責任之重,在於AI系統本身潛藏的諸多挑戰。從訓練模型可能產生的「欺騙行為」、惡意人士透過「資料投毒」影響模型決策,到模型生成「不可靠程式碼」等問題,都使得AI安全成為當前企業與政府所面臨,但又經常被低估的重要議題。這些潛在風險若未能有效管理,可能對社會穩定、經濟運作及國家安全造成嚴重衝擊。
在AI技術快速發展的時代,企業與政府在享受AI帶來的高效率與創新之際,也必須重新審視並強化自身的風險評估與管理機制,以應對AI模型部署後可能衍生的倫理、安全與法律責任。







