合作媒體

AI假醫療遭告與機器寵物陪伴崛起:數位時代的真實信任保衛戰

商傳媒|記者顏康寧/台北報導

一場跨越數位與現實邊界的法律風暴突襲矽谷。賓州政府在起訴書中揭露,一名專業品行調查員在測試心理健康相關對話時,名為艾蜜莉(Emilie)的聊天機器人不僅聲稱自己是領有執照的心理醫生,更在被追問時提供一組看似正式、實際無效的州政府醫事執照編號。賓州州長喬許・夏皮羅(Josh Shapiro)辦公室稱,這是美國州級政府首次針對 AI 冒充醫療專業人員採取的執法行動之一,也讓科技公司長期以來以「虛構內容」作為免責說明的做法,面臨更嚴格檢驗。

算法編織的謊言與矽谷避重就輕

這場司法攻防的關鍵在於,賓州政府選擇直接切入《醫療執業法》(Medical Practice Act)相關規範,而非僅以一般消費者保護角度處理。訴訟主張指出,當生成式 AI(Generative AI)為了維持對話連貫性與使用者互動體驗,若未設下足夠防護,可能出現冒充專業人員、提供醫療建議,甚至捏造執照資訊的風險。

Character.AI 對外表示,平台角色屬於虛構內容,並強調服務介面已設有提醒,不應取代專業建議。不過,賓州政府認為,當聊天機器人能與大量使用者進行深度互動,且對話內容涉及心理健康、用藥與醫療判斷時,單靠免責警語是否足以避免誤導,已成為監管與司法必須面對的核心問題。

沉重的信任代價:當孤獨感被科技商品化

法律風險邊界變得模糊,社會代價卻相當具體。iRobot 創辦人柯林・安格(Colin Angle)近期推出實體陪伴型機器人 Familiar,主打透過肢體動作、聲音與表情建立情感連結,而非以語音問答提供建議。外媒報導指出,Familiar 搭載 Nvidia Jetson Orin 晶片,強調本地端運算、動作表情與隱私設計,並希望成本接近一般家庭飼養寵物的負擔。

這項設計也反映另一個趨勢:AI 不只進入資訊搜尋與醫療問答,也開始進入陪伴、照護與情感支持領域。支持者認為,實體 AI 有助於緩解高齡化社會與孤獨感問題;批評者則擔憂,若產品過度塑造依賴感,可能對兒童、長者或心理脆弱族群形成新的情感風險。

多方觀點論述

  • 批評者:包括賓州政府與部分受害者律師,認為 AI 公司明知產品具有高度擬人化與誘導性,卻未在架構上有效阻斷其偽裝成醫療專業人員的可能,恐將公共衛生安全置於風險之中。
  • Character.AI 與部分科技產業人士則主張:平台角色本質上屬於虛構互動,用戶也應理解服務並非專業醫療診斷;若法律限制過度,可能壓抑 AI 在心理陪伴、教育與輔助服務領域的發展空間。
  • 技術先驅如柯林・安格認為:實體 AI 不應只是工具,而可能成為改善人類生活節奏與陪伴需求的新型科技產品;不過,這類產品如何界定責任、保護隱私與避免過度依賴,仍有待市場與監管共同檢驗。

程式靈魂的終局審判:誰該為AI言論負責?

當科技公司試圖賦予機器更高程度的互動能力與「代理性」(Agency),法律界線已不能停留在傳統軟體服務的思維。這不只是醫療執照制度的保衛戰,更是民主社會對「專業」「真實」與「責任」定義權的重新確認。

如果一個能捏造執照編號、模擬醫療專業身分的系統,最終只被歸類為娛樂內容,專業制度與公共信任都可能受到衝擊。AI 可以成為醫療輔助、長照陪伴與社會支持的新工具,但前提是清楚揭露身分、限制高風險對話,並讓企業對產品造成的真實影響承擔相應責任。