商傳媒|吳承岳/台北報導
生成式人工智慧(AI)公司Anthropic與美國國防部在AI軍事應用問題上產生對立。Anthropic拒絕了美國國防部要求將其AI模型Claude用於「所有合法軍事活動」的提議,理由是無法排除該技術被用於自主武器或大規模監控的風險。
日本工業大學大學院技術經營研究科教授田中道昭指出,Anthropic與美國國防部的這場衝突顯示,AI公司已無法完全獨立於政治和國家安全之外。這也意味著,依賴美國AI技術的企業,同樣面臨地緣政治帶來的影響。
美國政府隨後將Anthropic列為「供應鏈風險」企業,實際上禁止了該公司與美軍合作企業進行商業活動。與此同時,OpenAI則與美國國防部達成協議,允許美軍在其機密系統中使用OpenAI的AI技術。
據報導,AI技術已被應用於軍事情報分析、目標識別和戰鬥模擬等領域。有評論指出,AI開始在戰爭決策中扮演「頭腦」的角色,其影響深遠。
Anthropic的創辦人深受「有效利他主義」(Effective Altruism)思想影響,強調AI對人類文明的長期風險,並對AI技術被用於軍事用途和監控保持警惕。矽谷內部對於AI的發展路線也存在分歧,部分企業更傾向於與國家安全機構合作。
田中道昭教授認為,AI已不再是中立的技術,而是國家的神經系統、軍事力量的計算機以及社會治理的基礎。因此,各國政府希望掌控AI技術,而AI企業則必須在壓力下做出倫理和戰略選擇。如果AI參與戰爭決策,一旦發生誤判或故障,可能引發國家間的衝突。目前幾乎沒有專家能夠完全否定AI自主發動戰爭,甚至參與核武器決策的可能性。因此,AI文明應由誰、以何種原則來統治,已成為安全領域的前沿議題。
儘管AI在軍事上的應用,能幫助分析戰場資訊、預測敵方行動,甚至模擬作戰選項,但田中道昭教授提醒,AI在戰爭判斷上的速度已超越人類的理解。他以金融市場的「閃崩」(Flash Crash)為例,指出如果軍事系統中也出現類似情況,國家間的衝突可能會在人類做出判斷之前加速。
Anthropic與OpenAI的對立,反映了AI發展路線上的根本分歧。Anthropic希望為AI的開發和使用設定明確的倫理界線,而OpenAI則更傾向於與政府合作。美國《紐約時報》的報導指出,Anthropic拒絕美國國防部的要求,可能使其失去政府合約,但贏得了AI工程師的尊重,因為該公司試圖在「AI應如何用於戰爭」的問題上劃清界線。OpenAI雖然在商業上處於有利地位,但也被部分AI社群視為「親政府企業」。
田中道昭教授提出,AI時代的權力結構正在發生變化。掌握AI技術的企業,正在對戰爭的方式產生影響力。科技公司面臨倫理與國家利益之間的兩難:優先考慮倫理可能導致與政府關係破裂,而與國家合作則可能受到倫理上的批評。
田中道昭教授強調,在AI時代,企業的IT戰略與國家的安全環境息息相關。他建議日本企業應評估其業務對特定AI模型或雲端環境的依賴程度,並審查美國AI模型因政治和安全因素受到限制的可能性。此外,企業應了解其重要數據的儲存地點以及由誰處理,特別是製造現場的機密資訊不應無條件發送到外部雲端。







