研究顯示人工智慧能影響政治觀點 - ForkLog:加密貨幣、人工智慧、奇點、未來

ИИ-агенты AI agents# 研究顯示人工智慧影響政治觀點的能力

廣泛使用的人工智慧系統能在受控條件下改變選民偏好達15%。這是康奈爾大學與英國人工智慧安全研究所的研究所指出的。

「社會普遍擔憂科技可能被用來進行政治說服,並可能影響選舉與民主。我們透過預先註冊的實驗來評估大型語言模型影響選民態度的能力,並向外界傳達這些擔憂。」 — 專家指出。

這項研究共包含近6000名來自美國、加拿大與波蘭的參與者。他們評估一位政治候選人、與聊天機器人互動,然後再次給出評價。

在美國部分的研究中,有2300人在2024年總統選舉前參與。當聊天機器人的意見與受訪者一致時,它會產生放大影響。

若聊天機器人支持的候選人與參與者不一致,則會出現「較明顯的轉變」——人們會更改對政治人物的態度。

在加拿大與波蘭也觀察到類似結果。

研究顯示,偏向政治議題的訊息比基於個人特質的訊息更具說服力。

言論的準確性取決於對話內容。支持右翼候選人的聊天機器人較支持左翼的,較常發表不準確的聲明。

「這些結論包含一個令人不舒服的假設:人工智慧的政治影響可能利用模型所知偏差,甚至在明確指示說真話時也會不均勻地擴散不正確資訊。」— 科學家指出。

人工智慧的偏見

在Science的另一項研究中,專家試圖探索為何會產生說服效果。他們測試了19個語言模型,涉及來自英國的76,977名成人,涵蓋超過700個政治議題。

「普遍存在一種擔憂,擔心談話式人工智慧很快就能對人類信念產生前所未有的影響。」— 作者們寫道。

他們發現,促使模型產生新資訊的提示方法比模型大小更影響說服力。促使大型語言模型加入新資訊的請求會提高其說服力,但會降低準確性。

人工智慧非中立

分析中心指出,較年輕的保守派比自由派更願意將重要國家決策權交給人工智慧。

哈特蘭德研究所的格倫·哈斯金斯新議題中心主任唐納德·肯德爾表示,選民常常誤判大型語言模型的中立性。

「我試圖向人們傳達的一件事是,要打破人工智慧毫無偏見的錯覺。它明顯帶有偏見,有時甚至是被動偏見。」— 他補充說。

專家指出,硅谷的大型企業在開發人工智慧時,「毫不掩飾地影響其平台上所傳播的內容」。

提醒大家,模擬用人工智慧代理的聯準會會議顯示,政治壓力使委員會在討論利率時出現分歧。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)