合作媒體

醫療AI導入挑戰多 NIST與ISO框架助建「AI就緒」企業

商傳媒|何映辰/台北報導

醫療產業在導入人工智慧(AI)技術時面臨顯著挑戰,尤其在將實驗性專案轉化為全面性企業應用方面存在困難。有鑑於此,業界專家強調,建構一套完善的AI治理框架,以建立「AI就緒」的醫療企業,對於確保AI技術的安全、合規與效益非常關鍵。

根據麻省理工學院(MIT NANDA)2025年發布的《企業AI現況報告》指出,雖然通用型AI工具的實驗普及,但真正能整合至工作流程並產生可衡量損益影響的案例有限,存在「生成式AI鴻溝」(GenAI Divide)。該報告估計,僅有5%的客製化企業AI工具最終能投入實際生產。對於醫療機構而言,由於涉及受法規管制的數據、病患福祉以及高度審計的流程,AI系統的容錯空間更小。

報導指出,要達到「AI就緒」,醫療機構的治理模式必須成為核心營運框架,包含明確的決策結構、倫理規範、安全的數據環境、風險管理、持續的法規審查以及可擴展的架構。在診斷、放射學和藥學營運領域,AI監管環境錯綜複雜,涵蓋聯邦、州和國際層級的要求。若未能及早釐清法規義務,恐導致後續的修復成本、合約變更、部署延遲,甚至可能面臨監管機構的執法行動與法律訴訟。

國際框架提供治理依循

為此,美國國家標準暨技術研究院(NIST)的人工智慧風險管理框架(AI RMF)提供了一套自願性指南,旨在協助組織在AI的設計、開發、評估及使用過程中,確保其可信賴性。NIST AI RMF定義了「值得信賴的AI」特徵,包括有效與可靠、安全與韌性、負責與透明、可解釋與可理解、增強隱私及有效管理有害偏見等。此外,國際標準組織(ISO)的ISO/IEC 42001標準,則為建立和持續改進AI管理系統(AIMS)提供了要求,透過管理系統的方法來實施AI治理。ISO/IEC 23894則提供了關於管理AI特定風險的指南。

務實盤點AI應用與潛在風險

實務上,醫療機構應建立AI使用清單,區分機器學習(ML)、生成式AI及代理式AI,並明確AI在組織中扮演的角色(決策、決策輔助或資訊支援)。在診斷服務、放射科與藥房營運中,AI的應用涵蓋臨床與營運文件、設備功能、營收循環管理與帳務處理、行政業務流程以及技術開發工作流程。即使是包含「AI功能」的第三方工具,也需要進行審查。員工在日常工作中普遍使用消費者級AI工具,形成「影子AI」(shadow AI)現象,其發展速度往往超過企業內部正式AI專案的採用。

XiFin公司資安長暨法務與合規長馬蒂·巴拉克(Marty Barrack)強調,完善的AI策略應深思熟慮,考量框架、法規與合約要求、產業標準、利害關係人關切、優先使用案例以及資源限制。XiFin公司是醫療供應商營收循環管理軟體的領先業者。