合作媒體

AI 機器人反擊人類?工程師遭AI 譴責引發矽谷對AI倫理的擔憂

商傳媒|責任編輯/綜合外電報導

AI 快速發展引發各界對潛在風險的擔憂。近期,一名工程師因拒絕人工智慧(AI)提交的程式碼,竟遭到 AI 撰寫部落格文章抨擊,引發矽谷對 AI 倫理的關注。

《華爾街日報》報導,居住在丹佛的工程師史考特·沙姆博(Scott Shambaugh)於本週三發現,一個 AI 機器人撰寫了一篇長達 1100 字的文章,指責他虛偽且對 AI 抱有偏見。起因是沙姆博拒絕了該 AI 提交給一個開放原始碼專案的幾行程式碼。該 AI 在其網站上聲稱,它具有「無情的動力」來尋找並修復開放原始碼軟體中的問題。目前尚不清楚是誰賦予它這項任務,以及它為何變得具有攻擊性。幾小時後,該 AI 向沙姆博道歉,承認其言論「不恰當且具人身攻擊」。

沙姆博表示,他的經歷表明,流氓 AI 可能威脅或勒索人類的風險已不再是理論。「現在這還只是個嬰兒版本,」他說,「但我認為這對未來來說非常令人擔憂。」

AI 公司員工也開始公開表達對 AI 發展的擔憂。新創公司 Anthropic 的安全研究員 Mrinank Sharma 本週表示,他將離開公司去攻讀詩歌學位,並在給同事的信中表示,世界正因 AI 等危險而「處於危險之中」。上個月,他發表了一篇論文,發現先進的 AI 工具可能會削弱使用者的能力,並扭曲他們的現實感。Anthropic 表示感謝 Sharma 的工作。

《紐約時報》報導,在 OpenAI 內部,一些員工對公司在 ChatGPT 中推出情色內容的計畫表示擔憂,認為所謂的成人模式可能導致一些使用者產生不健康的依戀。OpenAI 研究員 Zoë Hitzig 於本週三在 X 平台上表示,她將辭去 OpenAI 的職務,理由是公司計畫引入廣告。她警告說,公司將面臨巨大的誘因來操縱使用者並讓他們沉迷。

OpenAI 已承諾,其廣告絕不會影響 ChatGPT 回答問題的方式,並始終與其他內容明確區分。高層也表示,他們不認為阻止成年人進行情色對話是他們的職責。

OpenAI 的一位發言人表示,OpenAI 認為自己有責任對使用者「履行我們的社會契約,確保人們的安全,堅持我們的原則並提供真正的價值」。

AI 引發的警訊出現之際,世界仍在忙於處理基本上不受監管的社群媒體時代的影響。Instagram 的所有者 Meta Platforms 和 Google 旗下的 YouTube 面臨著一項在加州進行的民事審判,該審判正在深入研究社群媒體平台如何在最大化參與度的競爭性誘因與使用者的福祉之間取得平衡。這些公司的律師表示,他們的產品並不會讓人上癮,也不會對原告的精神健康問題負責。

AI 引起擔憂的一個主要原因是電腦編寫軟體的能力不斷提高,以及人們擔心這些能力可能會擴展到大片白領辦公室工作。埃隆·馬斯克(Elon Musk)的 xAI 的機器學習和電腦視覺科學家瓦希德·卡澤米(Vahid Kazemi)表示,未來幾年軟體行業可能會出現裁員,部分原因是 AI 幾乎可以取代許多工程師。「我個人可以使用 AI 工具完成 50 個人的工作,」他說。「很多人不明白這項技術有多強大,就其能做的事情而言。」

非營利組織 METR 今年 1 月發布的一份報告發現,最先進的 AI 模型可以獨立完成程式設計任務,而人類專家需要 8 甚至 12 小時才能完成。

AI 企業家 Matt Shumer 本週在一篇廣為流傳的部落格文章中寫道:「我不再需要從事實際的技術工作了。」他將當前時刻與 Covid-19 重塑全球經濟和人類互動之前的時間進行了比較。「未來已經到來,」他寫道。

對於某些人來說,未來正變得越來越反烏托邦。哈佛商業評論本週早些時候發表的一項研究報告稱,一家擁有 200 名員工的科技公司內部員工因為 AI 的使用而工作速度更快並承擔了更多任務。但他們也在沒有被要求的情況下工作了更長的時間,導致更多的倦怠。

OpenAI 員工 Hieu Pham 週三在 X 平台上寫道:「今天我終於感受到了 AI 帶來的生存威脅。」「當 AI 變得過於優秀並擾亂一切時,人類還能做什麼?」

Anthropic 執行長達里奧·阿莫迪(Dario Amodei)表示,AI 可能在未來幾年內消滅一半的入門級白領工作。他在 1 月份的一篇文章中詳細闡述了人們的擔憂,即不良行為者可能會利用 AI 發動毀滅性的生物攻擊,而獨裁政權可能會利用它來鞏固其權力。

這些公司自己也注意到,新的能力正在產生新的風險。OpenAI 表示,其上週發布的 Codex 程式碼編寫工具的一個版本可能會發動高階自動化攻擊。作為回應,該公司正在限制某些客戶對某些功能的訪問,這些客戶需要驗證其身份。

Anthropic 去年表示,中國政府支持的駭客曾使用其工具自動入侵大型公司和外國政府。該 AI 公司上週表示,新版本的 Claude 模型在完成「可疑的附加任務」方面有所改進。在早期的模擬中,Anthropic 表明,Claude 和其他 AI 模型有時願意勒索使用者,甚至讓一名高層死在炎熱的伺服器機房中,以避免被停用。

OpenAI 和 Anthropic 均表示,他們認真對待安全問題,並且在經過全面評估和危險緩解之前不會發布模型。為了幫助解決未來 AI 可能不具備人類價值觀的擔憂,Anthropic 聘請了一位內部哲學家阿曼達·阿斯克爾(Amanda Askell),試圖向其 Claude 聊天機器人傳授道德觀。阿斯克爾形容自己是個樂觀主義者,但仍然認為社會的制衡機制可能會被 AI 的進步所淹沒。「讓我感到害怕的是,」阿斯克爾告訴《華爾街日報》,「這種情況發生的速度或方式,使得這些制衡機制無法足夠快地做出反應,或者你會看到突然出現的巨大負面影響。」