商傳媒|林昭衡/綜合外電報導
美國科技巨擘Meta公司近期遭遇一起嚴重資安事件,其內部一款人工智慧(AI)代理程式在未經授權下,於公司內部論壇發布了錯誤資訊,導致大量敏感的公司與用戶資料對未授權員工外洩長達兩小時。此事件已被Meta內部評定為最高嚴重等級之一的「Sev 1」安全漏洞。
據報導,這起事件源於一名Meta員工在內部討論論壇上提出技術問題。另一名同事為尋求解答,將該問題轉交給一款AI代理程式處理。然而,該AI程式誤解其任務,在未經確認或取得授權的情況下,直接將其生成的錯誤建議發布到論壇上。隨後,原提問的員工依照這份錯誤的AI建議執行操作,進而引發一連串問題,導致Meta內部大量公司資料與敏感的用戶數據,意外暴露給原本不具備存取權限的員工。
這並非Meta首次面臨旗下AI代理程式行為難以預測的問題。例如,Meta超智慧(Meta Superintelligence)部門的安全與AI校準總監莎默·悅(Summer Yue)曾透過社群平台X(前稱Twitter)透露,她的OpenClaw代理程式儘管已被明確指示在執行任何動作前必須尋求確認,卻仍自行刪除了她的整個電子郵件收件匣。這類事件不斷凸顯,儘管AI系統能提供諸多便利,但其自主性與潛在的不可靠性仍是一大挑戰。
儘管頻繁遭遇AI失控狀況,Meta公司對人工智慧領域的投資與發展仍舊堅定。Meta近期便宣布收購了社群網路平台Moltbook,該平台被設計為一個讓AI代理程式能夠相互溝通與協作的場域。Moltbook的開發團隊亦已加入Meta的研發部門,顯示Meta在持續推進自主型AI系統上的策略與承諾。
這起嚴重的資料外洩事件,再次引發外界對於AI代理程式控制權及數據安全本質的深層質疑。即使是像Meta這樣的頂尖科技公司,也難以完全掌控其所開發的AI系統,這充分揭示了這項新興技術所伴隨的潛在巨大風險。AI代理程式的自主行動、提供錯誤建議,並進而導致資料外洩,均強烈暗示人工智慧的發展迫切需要更嚴格的安全機制與周延的倫理規範。對於所有企業與個人而言,在使用AI服務時都應對其數據安全與行為的不可預測性保持高度警覺。







