商傳媒|林昭衡/綜合外電報導
AI 新創公司 Anthropic 與美國國防部之間的衝突持續升溫。由於 Anthropic 拒絕美國軍方在無限制條件下,將其 AI 模型 Claude 運用於自主武器及大規模監控,美國前總統川普已下令所有聯邦機構立即停止使用 Anthropic 的技術。
這場爭端的核心在於,Anthropic 認為大規模國內監控已超出道德底線,且 Claude 目前尚未準備好在沒有人工安全措施下,可靠且負責任地控制全自動武器。Anthropic 執行長 Dario Amodei 強調,AI 在保衛美國及其他民主國家方面具有重要價值,但在某些情況下,AI 反而可能損害民主價值。
美國國防部則反駁,認為不應允許任何公司干涉軍方決策。國防部發言人 Sean Parnell 表示,軍方無意利用 AI 進行大規模監控或開發無人干預的自主武器,並強調要求 Anthropic 允許國防部將其模型用於「所有合法用途」是合理且常識性的。
據報導,美國國防部長 Pete Hegseth 曾向 Anthropic 發出最後通牒,要求在期限前授予不受限制的 AI 模型使用權,否則將面臨嚴重後果。在 Anthropic 拒絕後,川普政府不僅下令全面禁用 Anthropic 技術,更將其列為「國家安全供應鏈風險」,禁止所有與美國軍方有業務往來的承包商、供應商或合作夥伴與 Anthropic 進行任何商業活動。這是美國首度有企業被認定為供應鏈風險。
儘管美國國防部已於 2024 年與 Anthropic 簽署合約,並在機密系統中使用 Claude 模型,但隨著 AI 技術的快速發展,以及其在軍事領域應用的潛在風險,這場爭端凸顯了科技公司與政府在 AI 倫理和監管方面的分歧。專家指出,AI 的發展主要由商業驅動,這使得 Anthropic 等公司擁有更大的影響力。同時,由於 AI 系統的複雜性,即使是開發者也難以完全理解其運作方式及潛在能力,這也加劇了 AI 應用於軍事及監控領域的風險。
美國智庫布魯金斯研究所(Brookings Institution)資深研究員 Thomas Wright 認為,當前最大的風險並非科技公司對軍方掌握過多權力,而是雙方都未能充分理解正在部署的系統,而這種無知的後果將在現實世界中接受考驗。








