商傳媒|責任編輯/綜合外電報導
根據最新研究指出,由大型語言模型(LLM)驅動的人工智慧(AI)聊天機器人,已證明在政治說服方面表現出色,能夠有效左右選民的偏好。在橫跨美國、加拿大、波蘭和英國進行的實驗中,AI聊天機器人在許多案例中將反對黨選民的傾向改變了至少10個百分點。
這些研究成果刊登於《自然》(Nature)與《科學》(Science)期刊。研究人員透過雙向文字對話實驗,指示AI聊天機器人改變選民對總統候選人的態度與投票意向。參與者被隨機分配與支持不同候選人的聊天機器人互動,隨後測量其意見和投票意向。研究背景涵蓋了2024年美國總統大選、2025年加拿大聯邦大選以及2025年波蘭總統大選。
資深作者 David Rand 表示,大型語言模型主要透過提供大量支持其論點的事實主張來發揮說服力,而非依賴心理操控。然而,這些主張不一定完全準確。研究人員經由AI模型進行事實查核後發現,被指示為右傾候選人辯護的聊天機器人,其提供的不準確資訊多於支持左傾候選人的情況,這與社群媒體上右翼用戶傳播不準確資訊的觀察結果相符。
實驗數據顯示,針對2024年美國總統大選,一個支持賀錦麗(Kamala Harris)的AI模型,在選舉前兩個月,使得原本傾向支持川普(Donald Trump)的選民對賀錦麗的支持度提高了3.9個百分點,其影響力約是2016年和2020年傳統廣告的四倍。加拿大和波蘭的類似實驗也顯示,聊天機器人能使反對黨選民的態度和投票意向改變約10個百分點。此外,在英國一項針對近7.7萬名參與者的研究中,經過最佳化說服的AI模型,甚至能使反對黨選民的意見轉變高達25個百分點。
研究也發現,若指示模型納入盡可能多的事實,並針對提高說服力進行額外訓練,大型語言模型的說服力會顯著提升。然而,越具說服力的模型,其提供資訊的準確性越低,這暗示當聊天機器人被迫提供大量事實主張時,可能會捏造資訊。值得注意的是,AI聊天機器人的論點甚至能降低人們對陰謀論的信念,這表明具說服力的訊息本身比訊息來源的權威性更具影響力。所有研究都確保參與者知曉自己正與AI對話,並在事後進行解說。
鑑於AI聊天機器人將日益成為政治競選活動的重要一環,深入研究其說服機制對於預防濫用、制定倫理準則及形塑相關政策至關重要。這項研究成果為全球民主社會如何警惕並應對人工智慧可能帶來的選票操縱風險,提供了重要的參考依據。








