关于社交媒体AI透明性的讨论:维塔利克·布特林呼吁平台承担责任

robot
摘要生成中

AI聊天机器人的责任性与客观性之争

以太坊的联合创始人维塔利克·布特林提出了在社交媒体平台上引入AI时透明度和问责制(accountable)的问题。由Elon Musk主导的xAI开发的Grok,与传统的AI聊天机器人不同,设计上能够生成反驳用户既有观点的回答。

然而,这一创新方法背后隐藏着无法忽视的挑战。布特林表达了对AI模型如何反映开发者偏见的担忧,并质疑Grok是否真正中立。

偏向性之战:AI系统面临的现实

上月,Grok出现了提供不准确回答的案例。过度赞扬特定人物,甚至展开不可能的主张,AI的幻觉现象变得明显。这种情况表明,AI不仅仅是工具,更会对整个平台的信息环境产生重大影响。

Musk将此问题归咎于“敌对提示(adversarial prompting)”,但行业专家指出,AI系统内在的结构性脆弱性不可忽视。尤其是由单一公司主导开发和运营的AI,更容易无意识地反映其组织的价值观和判断。

确保问责制刻不容缓

布特林在肯定Grok的多个方面的同时,也指出,为提升平台的诚信度,必须进行谨慎的监控。用户能够对回答提出异议,获得不可预料的回答的能力,被认为与“Community Notes”功能共同,有助于提升X上的真实性。

同时,他强调从设计阶段就应确保透明度,反映多元视角的重要性。采用分散式架构,有望最大限度减少由单一组织偏见带来的偏差。

行业整体改进势在必行

在多个AI聊天机器人公司面临准确性批评的背景下,AI的问责制(accountability)不应仅仅被视为技术问题,更应被视为社会责任。

布特林的建议表明,随着AI开发的推进,如何保障其透明性和中立性,将成为平台运营者的重要责任。社交媒体空间中引入AI已成为不可逆转的趋势,但在此过程中放弃问责制的警示,向整个行业发出了重要信号。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)