合作媒體

美國智庫倡議:AI失誤應採航空事故標準進行調查

商傳媒|葉安庭/綜合外電報導

隨著人工智慧(AI)應用日漸深入各行各業,其潛在風險與事故應對機制日益受到關注。美國智庫 Aspen Policy Academy 最新發布的政策框架建議各州政府官員,應建立一套正式系統,比照航空事故模式,調查AI工具在發生錯誤或造成損害時的事件。此舉旨在透過根因分析及預防措施,提升公眾對AI技術的信任。

該框架特別為猶他州人工智慧政策辦公室(Utah’s Office of Artificial Intelligence Policy)設計,該辦公室設有美國少數幾個AI監管沙盒之一,允許在監管機構密切監督下測試新興技術。框架提議建立結構化的調查流程,匯集政府官員、開發商和產業專家,共同檢視AI系統因開發、部署或輸出而造成直接損害的「生成式AI事件」(GenAI incidents)。此模式借鑒了航空與醫療領域的安全實踐,強調事後根因分析與預防,而非僅止於執法。框架並呼籲參與猶他州監管沙盒的公司,應簽署承諾書,公開分享調查結果,如同美國國家運輸安全委員會(National Transportation Safety Board)的事故報告。

Aspen Policy Academy 的研究指出,猶他州人工智慧政策辦公室目前缺乏明確的應對程序,來處理AI工具可能導致的偏見決策、不安全建議或其他引發財務、身體或社會層面負面影響的故障,這些問題恐侵蝕公眾信任。科羅拉多州議員目前也正在討論其具里程碑意義的2024年AI法案修正案,其中包括如何界定開發商和部署者在AI出錯時的責任歸屬。該政策框架將事故調查視為AI治理的下一階段,有助於各州從被動式監管轉向持續學習,並為尋求更一致AI監管的聯邦決策者提供參考範本。

與此同時,美國司法系統也面臨AI應用帶來的挑戰。一份報告顯示,儘管聯邦治安法官 Allison Goddard 使用AI模型搜尋案件記錄,並有聯邦法官使用AI草擬聽證問題及總結證詞,但他們都將AI使用限制在不需自由裁量權的行政事務。然而,過去一年中,已有密西西比州和紐澤西州的聯邦法官在訴訟當事人指出AI生成錯誤後,撤回了相關裁決,凸顯「自動化偏誤」(automation bias)——人類過度依賴自動化系統的傾向。為此,加州參議院已於2026年1月通過SB 574法案,明文禁止法官將決策權下放給AI。

目前,美國各州法院對AI的態度兩極,僅有17%的州法院正在使用生成式AI,而高達70%的州法院禁止員工將AI工具用於公務。儘管如此,美國州法院國家中心(National Center for State Courts)已開發出四層級風險框架,依據AI潛在侵犯憲法權利的可能性,從低風險行政任務到高風險量刑建議進行分類。在法學教育方面,俄亥俄州凱斯西儲大學法學院(Case Western Reserve University School of Law)於2025年成為全國首家要求所有一年級學生通過法律AI認證的法學院,隨後一年內至少有八所法學院跟進。這些發展均顯示,隨著AI在知識型工作領域的應用不斷拓展,美國司法系統正積極探索何時以及何處必須保留人類判斷的關鍵。