合作媒體

律師使用AI生成內容責任加重 錯誤資訊恐釀制裁

商傳媒|葉安庭/綜合外電報導

隨著人工智慧(AI)在法律實務中的應用日益普及,律師事務所在內容行銷與客戶溝通上,因AI生成內容而衍生的專業責任問題,已成為業界關注焦點。美國律師協會(ABA)與各地律師公會正積極推動AI使用規範,以應對潛在的法律與倫理風險。

根據《Legal Reader》報導,律師事務所的網站內容,無論是業務介紹頁面、部落格文章或常見問答,都被視為律師與潛在客戶的溝通。即使這些內容是由AI輔助生成,律師仍需對其準確性與合規性負起專業責任。美國律師協會於2024年發布的《ABA正式意見512》(ABA Formal Opinion 512)便明確指出,無論工作成果是否由AI協助產生,律師始終是最終責任人。

現行美國律師協會的三項《示範規則》(Model Rule)已直接涵蓋AI生成行銷內容的風險。其中,《示範規則7.1》禁止律師發布虛假或誤導性資訊;《示範規則1.1》要求律師必須具備使用相關科技的必要能力;而《示範規則5.3》則規範律師對非律師助理(包括第三方廠商)的監督責任。這意味著,若AI工具產生的法律資訊不準確、法規過時或含有誤導性聲明,且未經律師審閱就發布,最終責任歸屬於律師事務所,而非技術供應商或行銷公司。

錯誤資訊帶來的後果已非空穴來風。位於巴黎高等商貿學院(HEC Paris)的一份研究資料庫顯示,全球已有超過1,200起因AI產生「幻覺」(hallucinated content)並提交至法院的案例。例如,在2025年7月23日的「Johnson v. Dunn」一案中,三名律師因AI撰寫的法律文件引用虛假判例,遭到法院制裁並解除委任,且須向所有客戶、對造律師與承審法官揭露此制裁令。此外,谷歌(Google)的E-E-A-T框架(專業性、權威性、可信賴性)也要求內容須有署名律師、可驗證的資格及專業知識,未經律師審閱的AI生成內容恐難達標。

為了應對這些挑戰,美國各州也紛紛立法。2025年,全美50個州首次提出AI相關立法,共計145項法案獲得通過。截至2026年3月,另有45個州提出1,561項AI法案。華盛頓特區(Washington)於2026年3月通過HB 1170法案,要求內容包含AI生成元素時必須揭露;賓夕法尼亞州(Pennsylvania)則強制要求所有提交法院的文件中明確揭露AI的使用;奧勒岡州(Oregon)的《倫理意見2025-205》亦對AI使用提出類似的揭露與監督要求。

律師公會正優先處理AI在更高風險應用領域(如文件歸檔、法律研究與客戶諮詢)的規範,而行銷內容預計將是下一個重點。報導指出,雖然AI能提升內容製作效率,但律師的審閱是確保內容可發布並提高排名關鍵。律師事務所應制定明確的AI政策,涵蓋發布前的律師審閱、準確性驗證、第三方廠商監督以及定期內容稽核,以確保合規性與精確度。根據Clio 2025年《法律趨勢報告》顯示,去年有高達79%的法律專業人士使用AI工具,但僅有44%的事務所具備正式的AI治理政策,此一落差正是潛在風險所在。