商傳媒|葉安庭/綜合外電報導
近日,美國發生兩起人工智慧(AI)系統誤判導致假逮捕的案例,凸顯AI在刑事司法應用中潛藏的風險,引發外界對AI系統可靠性及其道德倫理的廣泛討論。
根據《The Mighty 790 KFGO》報導,2025年10月20日,馬里蘭州巴爾的摩郡一名17歲學生在橄欖球練習後,遭AI強化監控攝影機誤將口袋中的多力多滋餅乾袋辨識為槍枝。另一起事件發生在2025年12月24日,一名田納西州祖母因臉部辨識軟體錯誤地將她與北達科他州(她從未去過)的詐欺案連結,在獄中度過五個月後才獲釋,她曾被警方持槍逮捕。
報導指出,AI系統產出的是機率,而非絕對的事實,然而人們卻常將這些機率視為確定性,導致誤判。生成式人工智慧模型,例如ChatGPT和Claude,並非直接搜尋資料庫擷取事實,而是根據訓練數據中的模式,預測最有可能的答案。當使用者誤以為模型提供的是真相而非可能性時,危險便隨之而來。
美國已有數十個城市採用AI執法工具,這些系統會分析歷史犯罪數據,為社區評估預測風險分數,引導警力部署至潛在的熱點地區。一旦系統發出潛在威脅訊號,問題焦點往往轉向如何處理,而非預測的確定性。AI系統的「信心閾值」設定通常由供應商或機構在幕後決定,公眾鮮少參與討論,但這些閾值直接影響警方行動的觸發時機。
降低閾值雖能捕捉更多潛在威脅,卻也增加誤報的可能性,如同前述兩名無辜民眾的遭遇。相反地,提高閾值能減少錯誤,但可能錯失真正的危險。雖然部分執法機構主張,即便是根據不完善的訊號採取行動,也比錯失嚴重風險來得好,但這形同降低了演算法警報的門檻,實質上擴大了受警方關注的人數。
研究人員強調,這些閾值並非中立的技術特徵,而是模型開發者嵌入程式碼中的選擇,決定了演算法的懷疑何時轉化為實際的警方行動。相較於醫學領域對診斷工具錯誤率的明確校準與公開討論,警務領域的AI系統在誤報(偵測到不存在的威脅)與漏報(未能偵測到真實危險)之間,需要更審慎的平衡。法律體系透過「證據標準」來判斷證據說服力,反映社會對不確定性的容忍度。而AI模型通常不會表達不確定性,即使答案錯誤也顯得自信。
隨著AI應用範圍擴及執法、醫療等關鍵領域,專家呼籲科技業者應設計能承認不確定性的系統,並教育使用者如何負責任地解讀AI輸出,以避免類似冤案再次發生。








