商傳媒|記者責任編輯/綜合外電報導
科技媒體《TechCrunch》報導,全球最具影響力的生成式AI龍頭OpenAI正推動一項名為「Verified Organization」的新機制,未來企業與開發者若想存取其最新一代AI模型,將需通過嚴格的身分驗證程序,並提供政府核發的官方身分證件,以防止濫用行為與商業間諜活動。
根據OpenAI更新的支援說明頁面,該驗證程序適用於使用API的開發者與企業,用意在於「讓最先進的模型與功能,僅開放給經過驗證且遵守政策的用戶」。每一份官方證件每90天僅能用於驗證一間組織,OpenAI亦保留拒絕不符條件組織驗證的權利。
OpenAI聲明強調,「我們認真看待AI的責任與安全議題,雖然大多數開發者都遵守使用規範,但仍有少數違規者嘗試以不當手法操作模型,透過驗證流程,我們能更有效遏止有害應用,同時保障先進AI模型的開放性與可用性」。
《彭博》今年稍早報導指出,OpenAI懷疑中國AI實驗室DeepSeek所屬團隊,透過大量API存取操作,在2024年底非法擷取其大型語言模型資料,疑似用於訓練自有模型。這類行為不僅違反使用協議,也可能涉及智慧財產權竊取問題。
此外,OpenAI近期也對外揭露,平台曾多次偵測到來自北韓背景的開發者,意圖透過API建立政治操控與詐騙應用系統。面對越來越複雜的攻擊行為,OpenAI希望透過身分驗證與資安控管手段,強化平台對於國家級不法行為的防堵力。
法人分析,隨著AI模型能力逐步進入「通用化」階段,其被用於開發惡意內容、操控選舉或進行資安攻擊的風險也同步升高。企業使用者若未能釐清模型來源與存取條件,恐將面臨潛在法規風險與技術資產外洩問題。
目前,OpenAI僅於部分開發者群中推動驗證制度,未全面開放,未來是否將成為平台新常態、甚至與模型收費架構或企業授權制度整合,仍有待觀察;但業界普遍認為,這項機制象徵OpenAI逐步由「開放平台」邁向「可信任商業生態系」。