合作媒體

AI輔助法律任務責任誰扛?律師界籲辨明工具助益與專業判斷

商傳媒|何映辰/台北報導

隨著人工智慧(AI)工具在法律領域的應用日益普及,其對法律專業工作者委任責任與判斷歸屬的挑戰也浮上檯面。法律專家強調,儘管生成式AI能顯著提升工作效率,但人類律師與法官仍須對最終成果負起全責,警惕「過度委託」AI的風險。

現今的生成式AI工具,能以驚人的速度完成摘要、比較、組織、草擬、重構、翻譯及測試想法等任務,這對於處理大量文件與資訊的法律工作而言,無疑是強大的輔助。例如,在電子證據開示(eDiscovery)中,AI能協助理解龐大資料集、識別模式、加速案件初期評估,並支援法規會議的準備工作;在文件草擬與分析方面,AI則可協助產生更完善的初稿、檢查清單或對論點提供有用的批判意見。

然而,AI工具令人印象深刻的能力與自信的表達方式,可能具有誤導性,導致使用者過度依賴,尤其AI即使在精心設計的提示下,仍有出錯的風險。撰文者指出,身為試驗律師時對案件評估、證據蒐集與策略制定負責的經驗,以及後來成為法官時扮演決策者的角色,都印證了法律工作的本質在於承擔責任。

法律專業人士在使用AI時,應堅守三大原則:了解工具能力、驗證後再採信、永不放棄專業判斷。原因在於AI無法宣誓、不對客戶、法院、對方當事人或法律系統負有義務,亦不承擔聲譽、倫理、紀律或道德責任。所有法律責任,最終僅歸屬於人類。

一名法官便直言:「責任不依附於工作流程。」這凸顯了AI雖能輔助工作,但決策權與責任仍掌握在人類手中。包括The Sedona Conference及美國律師協會(ABA)、佛羅里達州律師協會(The Florida Bar)等組織,皆已發布相關指南,強調司法AI應著重於法官的責任、成果所有權、驗證與避免過度依賴。

「過度委託」的風險在於,律師可能在未充分理解、測試與驗證結果的情況下,接受AI的輸出,將其取代自身的專業判斷。例如,律師可能因AI提供的研究結果聽起來合理而接受、未核對原始紀錄即採納AI摘要、依賴未經驗證的AI時間軸,或簽署未經獨立評估的訴狀。此外,AI說服性地框定問題的方式,也可能導致人類審查者停止思考是否有更好的角度。

更深層的風險不僅是AI可能犯錯,而是它壓縮了從原始資訊到看似理解的過程。AI輸出看似完善的結構,可能製造出「理解工作已完成」的假象,心理學家稱之為「自動化偏誤」(automation bias)。AI僅處理並組織了資訊,但並未行使法律判斷。真正的法律判斷需要退一步思考、從不同視角審視問題、容忍不確定性以檢驗結論,並最終為可能的錯誤決策負責。

負責式地運用AI,要求在使用的當下即時判斷。其最佳模式是建立讓律師或法官全程參與的工作流程,AI負責提供選項、模式、不一致之處與替代方案,而人類則保留判斷重要性、可靠性、比例原則、特權、策略與最終決策的責任。目標在於避免委託那些賦予法律工作專業特性的部分。

具備自主行動能力的Agentic AI(代理式AI)將使風險提高,因其能規劃並執行多步驟任務,且所需的人為持續指導較少。一個錯誤的代理式AI工作流程可能傳送錯誤檔案、洩露特權資訊、更改訴訟保留程序、誤記提交截止日期,或將錯誤的法律結論傳播至多個工作產品。這類AI更需要即時判斷而非事後審查。

負責的AI使用不僅包括決定AI是否能提供協助,還需考量是否應告知客戶、該任務是否適用AI工具,以及由此產生的費用與工作成果是否合理。當人工智慧在訴訟中被用來產生指令、輔助專家工作、製作演示、合成證據或準備證詞時,律師將需要解釋所用工具的功能、存取資料、人工審查過程,以及該過程的合理性。法院也需區分適當的AI輔助與不當的司法權力委託。面對這項技術變革,法律界需要治理、測量與生命週期控制的風險管理方法,而非僅僅依靠個人謹慎。