商傳媒|責任編輯/綜合外電報導
隨著人工智慧(AI)與大型語言模型(LLM)的迅速發展,儘管為各行業帶來可觀的生產力提升潛力,卻也同時衍生出傳統防火牆無法有效應對的新型資安威脅。專家指出,AI系統固有的弱點,正促使企業必須重新檢視其安全策略。
AI時代下的新型資安風險
AI模型的運作高度依賴大量高品質的訓練數據。一旦這些數據遭到損害,輕則導致AI產生錯誤結果,重則洩露敏感資訊。駭客現已發展出多種針對AI系統的攻擊手法,例如「提示詞注入(prompt injection)」。這類攻擊透過精心設計的惡意指令,誘騙AI系統偏離其預設目的或安全規則。其中,「間接提示詞注入」更具隱蔽性,攻擊者將惡意指令隱藏在AI模型擷取的外部資料中,繞過直接輸入的安全檢查。
除了指令層面的攻擊,資料本身也是AI安全的脆弱點。「資料投毒(data poisoning)」是指將惡意、有缺陷或帶有偏見的數據注入訓練模型,藉此改變AI未來的行為模式或降低其效能。諷刺的是,研究人員與隱私權倡議者也可能反向利用資料投毒,將欺騙性數據混入公共資訊流,以對抗網路監控和企業數據爬蟲。
此外,AI系統即使經過設計旨在提供通用回答,仍可能意外洩露訓練數據中包含的私人資訊。攻擊者也可能嘗試進行「模型竊取(model extraction)」,在未取得原始程式碼的情況下,推斷出AI模型的內部邏輯與智慧財產權。
傳統防護失效 企業須全面佈局
面對這些複雜且動態的AI威脅,單純依賴傳統資安防護措施已力有未逮。企業導入AI技術時,必須將安全考量整合至模型的整個生命週期,從概念發想、開發、部署到營運,全程納入資安防護。這意味著需要建立一套全面的風險治理框架,而非僅僅安裝孤立的資安軟體。
對於科技業的安全從業人員而言,理解並預判AI獨特的威脅至關重要。企業應加強對安全團隊的培訓,提升其對AI數據與模型的認知,才能有效駕馭AI的強大功能,同時管理其伴隨的風險。
高階AI工具的應用與限制
目前市面上的高階AI工具,如Anthropic Claude Pro、Perplexity Pro和ChatGPT Plus,每月訂閱費用約為20美元,提供遠超越免費版本的強大功能,能處理個人Gmail歷史搜索、文件轉換、數據摘要成圖表等複雜任務。這些付費服務透過插件(plug-ins)或連接器(connectors),能與其他應用程式和網站互動,極大提升工作效率。然而,這些生成式AI仍處於持續演進階段,偶爾會出現錯誤,且即使是付費版本,也存在使用限制,例如基於「token」計算的每日或每週用量上限。
雖然這些AI工具在提升效率方面表現卓越,但其應用範圍與限制,也提醒資安專業人士在利用這些工具時,需審慎評估潛在的資料處理風險與模型穩定性問題。






