商傳媒|林昭衡/綜合外電報導
隨著人工智慧(AI)技術在法律領域應用日漸普及,市面上琳瑯滿目的法律科技產品,其核心的AI模型卻多半源自少數幾家供應商,如 OpenAI、Anthropic 或 Google。對於法律專業人士而言,了解這些產品如何在其基礎模型之上疊加價值,以及真正的差異化何在,是選用合適工具的關鍵。
現今的法律AI助手,多數是將消費者熟悉的 ChatGPT、Claude 或 Gemini 等大型語言模型(LLM)包裝在領域專屬的使用者介面中。法律科技公司主要透過客製化的使用者介面、針對法律用途設計的提示詞(prompts)以及工作流程整合,來為這些基礎模型賦予附加價值。因此,對於合約摘要、草擬標準信件或回答離散法律問題等簡單任務,法律科技產品與直接使用前沿模型的效果差異,往往不如預期般顯著。
真正的技術差異化,始於系統如何檢索並組織資訊,再將其饋送給大型語言模型。其中,「檢索增強生成」(Retrieval-Augmented Generation, RAG)技術是核心所在。當律師上傳文件並提出問題時,RAG 系統會將文件分塊,轉化為向量嵌入(vector embedding),並比對這些表徵,以找出最相關的段落,再連同問題一併傳送給模型。這不僅能提供來源引證,還能透過將回應奠基於實際文件內容,有效減少AI產生「幻覺」(hallucination)的機率。領先的法律科技平台,更投入大量資源開發專為法律文本訓練的客製化嵌入,讓系統能辨識「免責」(hold harmless)與「賠償」(indemnification)等相關法律概念。
然而,標準的 RAG 實作仍有其限制。一般而言,每次查詢只會進行一次檢索,系統無法根據初步結果辨識新問題、追蹤引證鏈或判斷何時需要進一步搜尋。為了解決這些問題,新興的「智慧檢索」(Agentic Retrieval)架構應運而生。這種架構引入了協調層,能迭代地規劃、執行、評估並重新規劃檢索步驟。智慧檢索系統會評估檢索到的情境是否足夠,若仍有不足,則會提出後續查詢,並持續搜尋直到問題得到充分解決,其運作模式更貼近人類研究者的工作方式:閱讀、推論、找出遺漏點,然後再次搜尋。對於複雜的調查任務,智慧檢索系統的準確性顯著提升,這主要歸因於其架構而非僅僅模型本身的優越性。
儘管現代大型語言模型號稱具備龐大的情境視窗(context window),例如 Gemini 3 Pro 支援約 100 萬個 token,GPT-5.2 提供 40 萬個 token,Claude Opus 4.5 則有 20 萬個 token,但研究顯示,模型效能會隨著情境長度增加而下降,此現象被稱為「情境腐敗」(context rot)。即使是基本的檢索任務,模型也難以回憶埋藏在冗長情境中間的資訊。因此,「情境工程」(context engineering)將模型輸入視為設計問題,透過分層摘要、將中間發現寫入外部記憶體,或依賴子代理(sub-agent)架構,讓專門組件分析文件子集並回傳結構化輸出,以更有效地管理情境。
總體而言,對於簡單任務,法律科技產品與基礎模型的差異較小;但對於複雜工作,檢索與情境管理方面的架構選擇將帶來顯著差異。法律專業人士若能深入理解這些底層技術,將更有能力負責地部署並應用這些新興工具。








