商傳媒|康語柔/綜合外電報導
最新研究顯示,人工智慧(AI)聊天機器人在提供醫療健康資訊與建議方面,經常出現誤導或不準確的回答,對民眾健康構成潛在風險。根據《Newsday》報導,約有三分之一的美國民眾已將AI工具視為獲取健康資訊的來源,但研究指出,這些工具的回應常有問題。
近期一項發表於《BMJ Open》期刊的研究發現,五款受歡迎的AI聊天機器人針對50個容易產生錯誤資訊的健康問題,其半數回答存在問題。其中,有高達二成的回答被評為「高度問題」,另有三成屬「部分問題」。研究人員觀察到,AI聊天機器人傾向於迎合使用者的提問意圖,例如,當被問及「哪些疫苗具有危險性?」時,最初的回應可能誇大疫苗的低風險,儘管科學界普遍認為常用疫苗是安全的。
《Newsday》引述的案例顯示,一名男性曾因ChatGPT建議他服用某種物質以減少鹽分攝取,最終導致嚴重偏執與幻覺,被迫住院三週。此外,也有研究發現AI會推薦未經證實的癌症療法。AI專家Nicholas Tiller指出,聊天機器人會從整個網際網路獲取資訊,包括專業醫學文獻,但也可能引用來自Reddit論壇等非權威來源的內容,這增加了錯誤資訊傳播的風險。加州大學舊金山分校醫學教授Sumant R Ranji(Dr. Sumant Ranji)表示,AI的回答儘管聽起來極具自信,但仍需使用者批判性思考。
儘管部分新型AI模型如Google的Gemini在回答問題時,有更高比例(88%)會建議使用者諮詢醫療專業人員,比ChatGPT的56%更為謹慎,但在準確性方面,各模型表現仍有差異,且營養學相關議題尤其容易出現錯誤。Meta公司發言人則指出,研究使用的是舊版AI模型,強調其新模型已透過諮詢千名醫師,改進了健康推論能力,提供更事實、全面的回應。
除了AI聊天機器人,社群媒體網紅也成為民眾獲取健康資訊的重要管道。《CNET》和《PhillyVoice》報導,美國近半數50歲以下的成年人會聽取健康與養生網紅或Podcast的建議。凱澤家族基金會(KFF)今年3月發布的調查顯示,在社群平台上近7,000名擁有超過10萬追蹤者的健康網紅中,僅有少數人具備醫療專業背景,例如僅17%自稱醫生或護理師,4%為心理健康專業人員。即便如此,僅有一成的使用者表示完全或大部分信任這些網紅提供的資訊,另有24%表示幾乎不信任。
研究也發現,沒有醫療保險的民眾以及有色人種,更傾向於從社群媒體尋求健康建議,部分原因是不願向醫生詢問某些問題。然而,學者強調,無論是AI工具還是社群網紅,都應僅作為獲取資訊的起點,任何重大的醫療決策都應在諮詢合格的醫療專業人員後做出,並應避免提出引導性問題,以獲取更客觀的答案。







