商傳媒|方承業/綜合外電報導
隨著人工智慧(AI)工具的普及,新加坡企業正日益面臨「影子AI」帶來的資安風險。一種名為 OpenClaw 的開源AI工具在市場上迅速崛起,凸顯了企業內部AI應用缺乏管控的問題。
OpenClaw 由奧地利開發商 Peter Steinberger 於 2025 年 11 月首次發布,是一個能夠執行多步驟指令的AI助理,例如編寫程式碼或處理金融交易,且僅需極少的人工監督。自由軟體工程師 Aayush Mathur 便是其用戶之一,他利用 OpenClaw 抓取社群平台數據進行市場研究,並消化文件與播客內容,將任務完成時間從數小時縮短至數分鐘,其工作流程約有四成透過 OpenClaw 運行。
然而,產業觀察家指出,若企業未採行明確的控制措施,部署 OpenClaw 將使企業網路面臨嚴重的資安威脅。網路安全公司 Koi Security 在其2月發布的報告中指出,OpenClaw 的應用程式商店 ClawHub 中發現 824 個惡意「技能」,突顯其開放生態系統的漏洞。新加坡國立大學計算機學院副教授 Ooi Wei Tsang 將這種情況比喻為,「猶如聘請一位盲從指示的實習生,卻賦予其對企業系統的深度存取權限,同時還允許外部人員直接下達指令」。他進一步警告,大型語言模型可能產生「幻覺」並給出錯誤指令,導致 OpenClaw 執行非預期甚至具破壞性的行為。
畢馬威(KPMG)新加坡網路安全主管 Gerry Chng 將這種脫離既定IT治理框架的AI使用現象,稱為「影子AI」。由於代理式AI工具被廣泛應用於程式編碼及營運流程中,企業的IT和軟體開發團隊被認為是風險暴露程度最高的部門。這也導致審查嚴謹度降低,機器生成輸出的驗證不足,進而增加錯誤與漏洞大規模部署的風險。KPMG報告預測,儘管這類自主AI工具到2027年可提升高達三成的員工效率,並降低兩成五的營運成本,但伴隨的資安挑戰不容忽視。
為降低威脅,分析師建議將AI代理程式運行於嚴格的沙盒環境中,並採行零信任身分架構。個人用戶如 Aayush Mathur 則透過將 OpenClaw 運行於雲端伺服器,並限制其對個人裝置的讀取權限,以保護數據安全。Ooi 教授提醒,產業標準可能不足,因此需要額外防護,例如阻止惡意指令、高風險操作需經人工批准,以及驗證輸出結果等措施。業界預期,代理式AI的應用將持續增長,但會朝向更具結構化的形式發展。
這些新加坡企業在導入AI技術時所面臨的「影子AI」風險,對台灣科技從業人員與企業主而言,提供了一項重要的警示。在追求AI帶來的效率與成本效益之際,如何強化資安防護、建立健全的AI治理框架,並確保應用的倫理與合規性,將是台灣企業在AI落地過程中必須審慎思考的關鍵課題。







