商傳媒|方承業/綜合外電報導
在美國總統川普下令聯邦機構停止使用人工智慧公司Anthropic的技術後數小時,美國軍方即在伊朗的一次空襲中部署了該公司的Claude AI模型。《華爾街日報》引述消息人士報導了這項消息。
據報導,負責中東地區的美國中央司令部(CENTCOM)在軍事行動中使用了Anthropic的Claude AI工具。 該技術被用於多項關鍵任務,包含情報評估和分析、攻擊目標識別以及作戰場景模擬。中央司令部拒絕評論在對伊朗的軍事行動中使用的具體系統。
據悉,Claude AI先前也曾被部署在美國軍方逮捕委內瑞拉總統馬杜羅的行動中。
Anthropic執行長Dario Amodei曾明確表示,不希望Claude被用於大規模監控或全自動武器系統。川普與Anthropic之間的衝突,源於Dario Amodei拒絕了美國國防部的要求,也就是軍方要求完全不受限制地使用其AI工具。
川普隨後下令,大多數聯邦機構必須立即停止使用Anthropic的技術,但給予五角大廈六個月的過渡期,以逐步替換已嵌入軍事平台的技術。
川普在社群媒體上表示,「我們不需要它,我們不想要它,我們永遠不會再與他們做生意。」但他指責Anthropic的決定是「災難性的錯誤」,並稱該公司的員工是「極左派」和「覺醒的」。 他還指責他們因「自私」而危及美國人的生命並損害國家安全。
Anthropic則以道德理由為由,拒絕了國防部的要求。 該公司表示,越來越關注其AI工具的潛在用途,特別是在國內大規模監控和全自動武器系統方面。
Anthropic在一份聲明中宣布,將在法庭上挑戰國防部長Pete Hegseth將其列為「供應鏈風險」的分類。 據稱,這將是美國公司首次收到此類指定。
Anthropic強調,將其歸類為供應鏈風險在法律上站不住腳,並為任何與政府談判的美國公司開創了危險的先例。
Anthropic的技術自2024年以來,就已被美國政府和軍方使用,並且是第一家其工具被部署在政府機構中用於機密工作的高階AI公司。 據該公司稱,新的分類僅影響Claude在與國防部簽訂的合約中的使用,其他業務領域不受影響。
Anthropic表示,與Anthropic和軍方合作的公司,可能需要停止使用Anthropic產品來執行代表國防部的任務。 該公司表示,如果最終停止合作,將協助平穩過渡到其他供應商。
隨著AI技術在軍事領域應用的日益廣泛,相關倫理爭議也浮上檯面。 台灣在發展AI技術的同時,或許可借鏡此案例,審慎評估並制定相關規範,以確保AI技術的合理使用。







