商傳媒|責任編輯/綜合外電報導
隨著 Deepfake(深偽)技術近年來快速發展,專家紛紛提出警告,指出這項技術所構成的威脅正日益擴大。紀錄片《iHuman》點出,自 2018 年至 2019 年該片拍攝期間,Deepfake 技術生成幾可亂真的偽造影片和音訊的能力已大幅提升,且這項技術的普及度也顯著提高,使用門檻大幅降低。
專家指出,這使得 Deepfake 技術被濫用於惡意目的,例如散布假訊息、詐欺和非自願的剝削,進而削弱大眾對數位媒體的信任。專家擔憂,從選舉、外交到法律訴訟和個人隱私,各層面都將受到 Deepfake 技術的負面影響。Deepfake 技術已被利用來攻擊弱勢群體,專家警告,若沒有有效的監管和應對策略,問題只會更加惡化,可能導致一個「見到的都無法相信」的反烏托邦。
《iHuman》採訪了 Pinscreen Inc. 執行長郝力(Hao Li),他坦言,該公司開發的臉部替換技術(Face replacement technology)接受政府和軍方資助,可能被用於操縱影片和製造假新聞。郝力表示,如果這項技術落入壞人手中,將「非常危險」。心理學家 Michal Kosinski 也在片中為他備受爭議的研究辯護,該研究利用臉部辨識來預測個人特質。Kosinski 認為,在當前的技術環境下,隱私已經不可能維持。
郝力表示,自 2012 年深度學習成為電腦視覺領域的重大變革以來,他們是最早將深度學習應用於電腦圖學領域的公司之一。他們的許多研究都由政府、軍方和情報機構資助。他說明,他們創建逼真臉部映射的方式,通常需要兩個對象:來源和目標,然後進行臉部替換。其中一項應用是操縱某人的臉,讓他說出他沒有說過的話。這項技術可用於創作有趣內容,但顯然也可能被用於操縱影片和製造假新聞。
Kosinski 則表示,在性傾向或政治觀點方面,人們當然應該擁有隱私權。但他擔心,在當前的技術環境下,這基本上是不可能的。
隨著 Deepfake 威脅日益增長,立法者面臨越來越大的壓力,必須制定更嚴格的法規和執法機制。美國聯邦政府要求各平台在 2026 年 5 月前建立通知和撤下(Notice-and-takedown)流程,以保護受害者。
專家總結,Deepfake 技術的快速發展,已超越政府和社會的應對能力,對民主、隱私和真相本身構成嚴重威脅。在問題進一步失控之前,需要採取緊急行動,制定有效的緩解策略。台灣社會也應警惕 Deepfake 技術可能帶來的潛在風險,並及早研擬應對措施,以維護資訊安全。







