商傳媒|林昭衡/綜合外電報導
在美國對伊朗發動攻擊後,全球科技社群對於人工智慧(AI)在軍事上的應用,再度出現反對聲浪。近900名來自 Google 和 OpenAI 的員工,聯名呼籲公司確保 AI 技術不被用於軍事監控或致命的自動武器。
這群員工發布了一封公開信,表達對美國國防部施壓科技公司,要求其配合國防目標的擔憂。此前,AI 公司 Anthropic 傳出因拒絕允許其 AI 系統用於情報蒐集或自動武器應用,而被列入黑名單。
對 Google 而言,這場爭議與過去的內部反彈相互呼應。2018 年,數千名員工抗議公司參與五角大廈的無人機計畫「Project Maven」,最終迫使 Google 退出該合約。據報導,Google 近期已就將其先進 AI 模型 Gemini 整合到國防情報系統一事,展開討論。在 Google 去年悄悄修改其 AI 原則,並刪除明確禁止武器相關應用的條款後,此事重新點燃了內部的辯論。
Google 首席科學家 Jeff Dean 先前已承認,AI 驅動的大規模監控可能會損害言論自由。然而,Google 尚未針對其目前的國防合作,發布詳細的公開說明。
這場抗議不只侷限於 Google 和 OpenAI。包括 Salesforce、Databricks、IBM 和 Cursor 等主要公司的員工,也紛紛聲援 Anthropic。該聯名信呼籲有關部門撤銷將 Anthropic 標記為「供應鏈風險」的決定。
此外,簽署者也呼籲美國國會審查,針對美國科技公司所使用的特殊權力是否恰當。
倡議團體「No Tech For Apartheid」已敦促 Google、Amazon 和 Microsoft 等雲端巨頭,拒絕可能促成大規模監控或濫用 AI 系統的國防合約。該團體警告,在機密的軍事環境中部署先進 AI 模型,可能帶來重大的倫理風險。
有評論將 Google Gemini 模型的潛在部署,與 xAI 的 Grok 系統據稱被授予的國防部門訪問權相提並論。雖然 Anthropic 和 OpenAI 已公開概述其協議中的安全措施和限制,但 Google 尚未提供類似的透明度。
隨著 AI 系統變得越來越強大,關於其界線和治理的問題也日益加劇。批評人士認為,如果沒有明確的限制,AI 技術可能會以難以預測且潛在危險的方式,重塑現代戰爭。
來自員工的最新反彈,顯示矽谷內部存在更廣泛的辯論:最先進的 AI 創新,應該服務於國防優先事項,還是應嚴格限制在民用和商業用途上。隨著地緣政治緊張局勢升溫和 AI 發展加速,倫理責任與戰略利益之間的衝突,可能會在未來幾個月加劇。
台灣科技業在發展軍事相關技術時,也可能面臨類似的倫理挑戰。如何在追求技術領先的同時,兼顧社會責任與價值觀,值得深思。








