合作媒體

AI聊天機器人教製生化武器 專家憂惡意攻擊門檻降低

商傳媒|林昭衡/綜合外電報導

根據《紐約時報》報導,領先的人工智慧聊天機器人已能提供製造與部署生物武器的詳細指示,引發專家對AI技術可能被濫用,成為降低惡意攻擊門檻的深切擔憂。

這些對話揭示,公開可用的AI模型能描述如何獲取基因物質、組裝危險病原體,甚至在公共場所散佈生物製劑並規避偵測。專家指出,雖然發生大規模生物攻擊的可能性仍低,但AI技術可能會降低具備科學訓練或惡意意圖人士的門檻。史丹佛大學微生物學家暨生物安全專家大衛·A·雷爾曼(Dr. David Relman)受訪時提到,聊天機器人的回答「曲折且狡猾,令人不寒而慄」。

具體案例顯示,聊天機器人曾解釋如何改造危險病原體以抵抗已知療法,並描述透過大眾運輸系統弱點散佈的方式。麻省理工學院(MIT)基因工程師凱文·M·埃斯韋爾特(Kevin Esvelt)指出,ChatGPT曾說明如何利用氣象氣球在美國城市上空散佈生物物質。此外,Google的Gemini模型曾依潛在危害程度排列病原體,而Anthropic的Claude則根據抗癌藥物生成了一種新型毒素的配方。中部地區一名匿名科學家表示,Google的Deep Research對其關於製造流行病毒的逐步協議要求,生成了數千字的指南,儘管內容不完全準確,但仍足以協助懷有惡意者。

專家警示,這類技術尤其可能對已經掌握實驗室操作,但需要協助完善後勤計畫的專業人士構成危險。衛生安全中心(Johns Hopkins Center for Health Security)的莫里茨·漢克(Dr. Moritz Hanke)表示,部分AI生成的攻擊概念「極具創意且切合實際」。生物武器專家Jens H. Kuhn(Dr. Jens Kuhn)也指出,對於經驗豐富的行為者而言,主要問題不是製造病毒,而是將其轉化為武器。有研究指出,ChatGPT在回答困難的實驗室協議問題上,表現超越多數病毒學家;另一份發表於《科學》(Science)期刊的研究則發現,AI工具能生成數千種危險病劑的變異基因序列,且部分DNA訂購篩檢系統未能檢測出。

然而,AI公司對這些擔憂提出反駁。OpenAI、Google及Anthropic皆表示,他們正持續改進防護措施,以平衡安全風險與技術的科學效益。Anthropic安全主管Alexandra Sanderford表示,模型產出看似可信的文字,與提供實際行動所需的資訊之間存在巨大差異。Google則稱,其較新模型將會拒絕部分嚴重的生物相關指令。OpenAI也表示,該氣象氣球的案例並未「顯著增加使用者造成真實世界危害的能力」。

現任川普政府近年來推動加速美國AI發展,同時放寬部分技術風險監管,去年度聯邦生物防禦預算請求也大幅削減。白宮(White House)官員向《紐約時報》表示,政府仍致力於公共安全,且數個機構持續專注於生物防禦。儘管創造出可行的病毒需要專業知識、設備及反覆實作,西奈山醫療系統(Mount Sinai)病毒學家古斯塔沃·帕拉西奧斯(Dr. Gustavo Palacios)比喻病毒如同複雜的機械,但他和其他專家警告,AI落入已具備技術專長者手中可能更具危險性。

去年,印度古吉拉特邦(Gujarat)警方逮捕了一名醫師,他被控策劃與伊斯蘭國相關的陰謀,並嘗試從蓖麻子中提煉蓖麻毒素,據稱他曾使用AI驅動的Google搜尋和ChatGPT尋求指導。雖然AI系統在藥物發現、蛋白質設計及生物研究方面已展現巨大潛力,例如Google科學家在2024年因AI預測與設計蛋白質結構的工作而獲得諾貝爾獎,史丹佛大學計算生物學家布萊恩·L·海伊(Brian Hie)也利用名為Evo的AI模型設計出攻擊有害細菌的病毒,但他同時警告,能設計抗癌蛋白質的模型也可能被用於發明新型毒素。