商傳媒|記者責任編輯/綜合外電報導
生成式AI快速滲透醫療領域,OpenAI日前宣布推出專為健康諮詢設計的ChatGPT Health,引發醫界與產業高度關注。部分臨床醫師肯定其改善就醫可近性的潛力,但也提醒錯誤醫療建議、資料隱私與監管空白,仍是無法忽視的風險。
科技媒體《TechCrunch》報導分析,實際臨床案例顯示,ChatGPT在醫療資訊解讀上仍可能出現偏差。一名外科醫師指出,曾有病患引用ChatGPT對特定藥物的高風險說法,經查證後發現,該數據僅適用於結核病等特定族群,並不符合該名病患條件。這類情況凸顯,一旦缺乏醫療背景判讀,AI生成內容恐怕會被民眾誤用。
儘管如此,ChatGPT Health仍獲部分醫界人士正面評價,主因是該服務主打更私密的健康對話環境,使用者的內容不會被納入模型訓練,並可上傳病歷或串接健康管理應用程式,提供較個人化的建議。支持聲浪指出,將既有使用行為制度化,有助於建立基本防護與使用界線。
不過伴隨醫療便利化,資安與法規疑慮也隨之浮現。有資安業者指出,當醫療資料從符合醫療隱私法規的機構流向一般科技平台,監管責任與資料保護標準恐出現落差,未來監管機關如何界定責任歸屬,仍有待觀察。
從產業角度來看,與AI對話已成為民眾尋求健康資訊的主流之一。投資界指出,健康諮詢原本就是ChatGPT最常見的應用場景之一,推出專屬版本具有高度商業與使用邏輯;然而,醫療AI長期面臨「幻覺」問題,在高風險的健康領域格外敏感。
也有醫界學者認為,當前美國醫療體系的最大問題在於可近性不足,基層醫療候診時間動輒數月。相較之下,AI即時提供初步資訊,對部分民眾而言具有現實吸引力;但更可行的導入路徑,可能是在醫療提供者端,而非完全交由病患自行判斷。
目前,多所醫學中心正嘗試將AI整合至電子病歷系統,協助醫師快速整理資訊、減少行政負擔。研究指出,行政作業長期占用醫師大量時間,若能透過AI自動化,將有助於提升看診量與醫病互動品質。目前包括Anthropic在內的AI公司,也將重心放在協助保險核准與臨床行政流程。
綜觀局勢,ChatGPT Health象徵AI醫療應用邁向制度化的重要一步,但醫療專業、資料治理與商業利益之間的張力仍然存在。短期內,AI難以取代醫師的專業判斷,如何在提升效率與保障病患安全之間取得平衡,將是AI醫療發展的考量關鍵。








