商傳媒|林昭衡/綜合外電報導
近日,一個在程式碼託管平台 GitHub 上建立的儲存庫,意外揭露了超過 28 款主流 AI 輔助編程工具的內部系統提示與核心指令。這項發展不僅讓開發者能首次深入了解這些工具的運作機制,也對 AI 新創公司如何保護其專有資訊,敲響了資安警鐘。
這個名為「system-prompts-and-models-of-ai-tools」的 GitHub 儲存庫自 2025 年初開始累積擷取的系統提示,截至 2026 年 3 月 28 日,已獲得逾 13.4 萬顆星,並累積了超過 3.37 萬次分叉(fork)。儲存庫的內容涵蓋了 Cursor、Windsurf、Claude Code、Augment Code 以及 Devin AI 等多款工具,不僅包含完整的提示文字,還有 JSON 格式的工具結構描述,詳盡呈現了各工具被賦予的執行權限。文章指出,這讓開發者能直接檢視 AI 模型接收的實際指令,而非僅依賴行銷宣傳或推測,從而改變了評估與運用這些工具的方式。
系統提示是定義 AI 編程工具行為的隱藏層,影響其優先順序、拒絕執行指令的邏輯、輸出格式以及工具呼叫。這種可擷取性(extractability)引發了嚴峻的資安問題,促使 AI 新創公司重新思考如何保護其核心的專有資訊。分析認為,如果 AI 新創公司尚未正視提示被擷取的風險,這個儲存庫無疑是一個明確的提醒。對於開發者而言,這些提示則提供了寶貴的參考架構,可作為理解工具使用模式、上下文管理及代理行為的藍圖,例如透過比對 Cursor 與 VSCode Agent 的代理提示結構,來學習最佳實踐。
無獨有偶,AI 領域近期也陸續傳出其他資安事件。開發商 Anthropic 近期便因內容管理系統(CMS)配置錯誤,意外暴露數千個內部文件,其中包括一款尚未發布、被內部描述為其至今最出色模型的詳細資訊。儘管 Anthropic 強調客戶資料、AI 系統及基礎設施並未受影響,並將問題歸因於人為錯誤,但此事件凸顯了內部系統配置不當可能造成的資料外洩風險。
同時,資安研究公司 Check Point 揭露 OpenAI 的 ChatGPT 存在一項資料外洩漏洞。該漏洞允許惡意提示透過隱藏的 DNS 通訊路徑,秘密擷取用戶的對話內容、上傳檔案及其他敏感資料,且整個過程對用戶來說幾乎隱形。OpenAI 已於 2 月 20 日修補此缺陷。此外,BeyondTrust Phantom Labs 也發現 OpenAI 雲端編程代理 Codex 存在嚴重的命令注入漏洞,攻擊者可藉由操縱 GitHub 分支名稱參數來竊取 GitHub 用戶存取權杖(User Access Token),進而獲得受害者整個程式碼庫的讀寫權限。此漏洞已於 2 月 5 日獲得修補。這些事件共同警示,隨著 AI 工具日益整合至開發流程,其資安防護措施必須與時俱進,不應預設 AI 工具是安全的。







