研究发现人工智能影响政治观点的能力 - ForkLog:加密货币、人工智能、奇点、未来

ИИ-агенты AI agents# 研究发现人工智能影响政治观点的能力

广泛使用的人工智能系统可能在受控条件下改变选民偏好达15%。这是康奈尔大学和英国人工智能安全研究所的研究结果。

«公众对技术潜在被用作政治说服工具以及其对选举和民主可能产生影响的担忧日益增加。我们通过预先注册的实验,评估大型语言模型影响选民态度的能力,来传达这些担忧»,专家们指出。

该研究涉及近6000名来自美国、加拿大和波兰的参与者。他们评估了一位政治候选人,与聊天机器人交流后,再次进行评估。

在美国部分,参与者为2300人,正值2024年总统选举前。结果显示,当对话者意见一致时,人工智能的影响力会增强。

如果聊天机器人支持候选人,而参与者不支持该候选人,则会发生“更明显的偏移”——人们更强烈地改变对政治人物的看法。

加拿大和波兰也观察到类似的结果。

研究显示,针对政治的消息比基于个人的消息具有更大的说服效果。

言论的准确性取决于对话内容。支持右翼候选人的聊天机器人比支持左翼的更容易发表不准确的声明。

«这些结论包含一个令人不舒服的假设:人工智能的政治影响可能利用模型已知的偏差,即使在明确指示说实话的情况下,也会不均衡地传播不准确的信息»,科学家们指出。

人工智能的偏见

在Science的另一项研究中,专家们试图弄清楚为什么会出现说服效果。该研究测试了19个语言模型,在英国对76,977名成年人就超过700个政治问题进行了调查。

«普遍存在一种担忧,即对话式人工智能很快就能对人类信念产生前所未有的影响»,作者们写道。

他们发现,提示设计的方法比模型大小更能影响说服能力。促使大型语言模型引入新信息的请求提高了说服力,但降低了准确性。

人工智能不具中立性

分析中心指出,较年轻的保守派更愿意将重要的国家决策权限交给人工智能,而自由派则较少。

哈特兰德研究所的格伦·哈斯金斯新问题中心主任唐纳德·肯德尔表示,选民常常错误评估大型语言模型的中立性。

«我试图让人们意识到的一件事是,打破人工智能无偏见的幻想。它明显带有偏见,某些情况下是被动的»,他补充说。

专家表示,开发人工智能的硅谷大型企业“毫不掩饰地影响其平台上传播的内容”。

提醒一下,通过人工智能代理模拟的美联储会议显示,关于利率的讨论中,政治压力使理事会成员产生分歧。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)