商傳媒|葉安庭/綜合外電報導
隨著生成式 AI 演算法在 2026 年達到肉眼難辨的境界,全球線上求職市場正淪為資安新戰場。東京都內一家 IT 企業於三月上旬的面試中,截獲一起利用 Deepfake(深偽)技術冒充知名企業家身份的應徵案件。經專業機構檢測確認,該影像由 AI 即時生成,疑似與北韓網路犯罪集團資助核武計畫的「全端工程師」詐騙案有關。此事件引發全球對 AI 倫理與企業招募驗證機制的集體焦慮。
根據《讀賣新聞》報導,一名自稱「吉井健文」的美籍男性透過仲介平台投遞履歷,聲稱擁有豐富的日本 IT 大廠經驗。然而,面試過程中其生硬的對話與「完全遠距」的要求引發招募人員懷疑。
盜用名人身份:深偽技術的破綻
事後查證發現,該應徵者竟是盜用東京「Reunion Software」代表吉井健文的公開資訊。經「Nablas」與美國資安大廠 Okta 檢測,該面試影片存在多項 AI 偽造特徵:
- 影像邊緣不自然:髮際線與背景接合處出現閃爍。
- 感官同步異常:嘴部動作與音軌存在微小延遲。
- 生物特徵偏移:眼睛位置在轉頭時偶有位移。
資安公司趨勢科技(Trend Micro)警告,這並非單一惡作劇。全球已有超過 5,000 家企業遭遇類似攻擊,累計逾 6,500 起案例。這些具備北韓背景的 IT 人員,利用 AI 將自己包裝成高階「全端工程師」,成功錄取後將薪資匯往特定帳戶,以規避國際制裁並資助其軍事計畫。
企業防禦建議:超越肉眼的驗證
日本國立情報學研究所教授越前功指出,企業應放棄單一視訊驗證,改採以下措施:
- 多重身份驗證:要求應徵者在面試中執行特定隨機動作(如側轉臉部 90 度)。
- 深層專業對話:透過高難度的技術細節追問,測試 AI 生成內容的邏輯連貫性。
- 背景調查(Reference Check)強化:直接聯繫前任雇主,而非僅依賴社群平台連結。
國際政策動向:AI 成為國安風險
與此同時,美國政府於 3 月 17 日將 AI 巨頭 Anthropic 列為「不可接受的國家安全風險」,理由是擔心 AI 系統易受操控,可能被用於危害國家優先事項。這顯示從企業徵才到國家防禦,AI 的控制權與倫理規範已成為 2026 年最嚴峻的全球議題。








