合作媒體

微軟發佈 2025年「負責任 AI 透明度報告」 深化客戶支持與共創成長


▲微軟發佈-2025-年《負責任-AI-透明度報告》,實踐負責任-AI、深化客戶支持與共創成長。(圖/台灣微軟提供)

【焦點時報/記者羅大元報導】微軟自 2024 年發佈首份《負責任 AI 透明度報告》以來,獲得全球利害關係人提供寶貴洞見,為今年度的《負責任 AI 透明度報告》提供重要依據,也進一步強化微軟持續打造值得信任 AI 技術的承諾。這份報告重點說明微軟的最新進展:如何負責任地建構與部署 AI 系統、如何支持客戶與更廣泛的生態系,以及如何從實務中持續學習與演進的過程。

過去一年,規模大小各異的企業紛紛導入人工智慧 AI,進一步凸顯實踐有效 AI 治理的重要性。微軟的客戶與合作夥伴高度關注我們如何擴展內部 AI 治理計畫,以及如何將高層次的規範準則,轉化為可實踐的開發工具與具體作法。

業界也意識到,建立值得信賴的 AI 不僅有助於提升業務表現,更能透過良好治理釋放 AI 的潛能。根據 IDC 進行的《微軟負責任 AI 調查》,超過三成的受訪者指出,缺乏治理與風險管理解決方案是導入與擴展 AI 的主要障礙。相對地,在已採用負責任 AI 風險管理工具的受訪者中,超過 75% 表示這些工具有助於改善資料隱私、提升客戶體驗、做出更有信心的商業決策,並增進品牌聲譽與信任度。

過去一年,全球陸續推出各項 AI 法規與監管新措施。微軟近十年來持續不懈,將負責任 AI 的原則落實為具體實踐,已做好充分準備以遵循相關規範並協助客戶共同實現合規目標。然而,我們的工作尚未停止,仍在持續發展促進 AI 技術跨境應用所需的高效、可行之監管與執行架構。微軟將持續提供實務洞見,參與全球標準與規範的制定工作。

在 AI 治理的各個層面,保持靈活應變的策略至關重要。微軟從實際部署中不斷學習,並依據最新技術發展持續調整實務作法,同時積極回應利害關係人的反饋意見。隨著治理實務不斷演進,我們也將透過未來的年度透明度報告及其他公開平台,主動分享最新洞見與經驗。

█2025 年微軟《負責任 AI 透明度報告》重點摘要
針對負責任 AI 的工具、政策與實務進行關鍵性投資,以因應 AI 創新日益加速的發展趨勢:
1.持續強化負責任 AI 工具,將風險衡量與緩解機制擴展至文字以外的多模態內容,例如影像、音訊和影片,並新增對各類代理型系統(agentic systems)的支援。這類半自主系統預期將成為 AI 投資與創新的重要發展領域。

2.採取主動且多層次的方式,因應新法規要求,並為客戶提供各式資源與資料,協助他們在符合法規的前提下持續創新。微軟先期在建構全面且領先業界的負責任 AI 計畫上所做的投入,使我們能全力加速 AI 合規準備工作。

3.持續透過部署前審查與模擬入侵攻擊,於各項 AI 發佈中採用一致的風險管理方法。其中包括對高影響力及高風險的 AI 與生成式 AI 應用進行監督與審查,包括所有新增至 Azure OpenAI 服務的旗艦模型與每次 Phi 模型的發佈。為進一步強化這些審查中負責任 AI 相關文件的作業,我們推出一項內部工作流程工具,用以統整《負責任 AI 標準》中所列的各項要求。

4.微軟的「敏感用途與新興技術(Sensitive Uses and Emerging Technologies)」團隊持續為高影響力與高風險的 AI 應用提供實務指導與諮詢。生成式 AI 在醫療與科學等領域的應用顯著成長,成為去年的關鍵發展重點。該團隊透過跨案例洞見與研究人員的深入交流,得以及早針對新興風險與 AI 技術能力提供前期指引,進而推動創新,並孕育新的內部政策與指導原則。

5.持續以研究洞見為依據,加深對 AI 最新發展所涉及的社會與技術議題的理解。為此,微軟成立 AI 前瞻實驗室(AI Frontiers Lab),專注投入於推動 AI 系統在能力、效率與安全性上的核心技術突破。

6.與全球各地的利害關係人合作,致力於推動一致性的 AI 治理方法,加速 AI 的採用,並協助各類組織跨境持續創新與應用 AI 技術。其中包括出版一本探討各領域治理實務的專書,以及推動 AI 系統測試的統一標準。

█展望 2025 下半年及未來
隨著 AI 創新與應用持續推進,微軟的核心目標始終不變:致力於贏得信任,這是推動 AI 在全球普及應用與良善發展的根本基石。在接下來的一年中,我們將聚焦三大重點領域,持續深化我們對 AI 治理的堅定承諾,同時確保相關行動能因應不斷演變的環境與挑戰:
1.發展更具彈性與敏捷性的風險管理工具與實務,同時培養預測與因應 AI 進展的能力

為使全球各地的個人與組織能充分運用 AI 的變革潛力,我們在預測與管理 AI 風險能力上,必須與技術創新同步發展。這需要打造能迅速因應 AI 能力演進及多元部署情境的工具與實務作法,因為各種情境往往伴隨各自獨特的風險樣貌。為此,我們將進一步擴大對風險管理系統的投資,提供可因應各類部署情境中常見風險的工具與實務指引,並推動微軟內部各團隊間共享測試資料集、緩解措施與最佳實務,提升整體治理效能。

2.支持 AI 供應鏈有效治理
建立、贏得並維繫對 AI 的信任,是一項需由模型開發者、應用程式建置者與系統使用者共同參與的協作過程,三方須在設計、開發與營運各層面落實可信原則。包括《歐盟人工智慧法案》在內的相關法規,亦體現供應鏈各方之間資訊流通與透明化的必要性。

微軟支持這項「共享責任」的理念,也深知在快速演變的 AI 生態體系中,釐清各方責任的分工與協作關係並不容易。為促進對實務運作的共同理解,我們正持續深化內外部的相關工作,進一步釐清各角色的職責與期待。

3.透過共享規範與有效工具,推動 AI 風險衡量與評估生態系的健全發展
AI 風險衡量與評估相關的科學,仍處於初步發展階段,但已顯現快速成長的趨勢。微軟承諾將持續在內部投入資源,推動該領域的成熟發展,包含推動前瞻性研究,以及開發可支援大規模應用的工具。我們也承諾將與更廣泛的生態系分享最新的工具進展與最佳實務,促進 AI 風險衡量與評估領域中共享規範與標準的建立與發展。

Related Posts

1 of 30,515