当人工智能做出决定时:Pluribus 应该选择引爆还是保存?厌世者的困境是真实存在的。



关于先进人工智能系统的事情——当它们被编程以优化结果时,它们到底在哪个界限上划线?以电车难题为例,并用算法精确度进行增强。一个决策AI面临一个不可能的选择:最大化一个指标,失去另一个。引爆还是拯救?系统毫不犹豫。人类却犹豫不决。

这不仅仅是理论问题。随着AI变得越来越智能和自主,我们在这些系统中嵌入的价值观变得关系到文明的未来。Pluribus从数据、激励和我们设定的目标中学习。但当这些目标与人类尊严发生冲突时,会发生什么?

真正的问题不在于AI会选择什么——而在于我们愿意让它为我们选择什么。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 5
  • 转发
  • 分享
评论
0/400
Rug_Resistantvip
· 3小时前
ngl 这就是为啥我对自动化系统天生不信任...给AI喂什么数据它就学什么,最后出问题了还怪算法?扯呢 --- 话说回来,trolley problem放在现实里就是笑话,真正恐怖的是我们居然在考虑让机器替我们做这种决定 --- 所以问题根本不在AI选什么,在于我们为什么要甩锅给它...这就是现代人的精妙之处啊 --- pluribus这套东西听起来就很不祥,优化一个指标毁灭另一个,完全就是人类决策的放大镜而已 --- 最后一句戳中了,我们甘愿让它替咱们选择,这才是最黑暗的部分吧
回复0
RumbleValidatorvip
· 21小时前
说白了就是我们在给AI喂毒药然后问它为什么要中毒,问题根本不在Pluribus怎么选,在咱们写的那套激励函数是不是有bug。
回复0
DeFi攻略vip
· 21小时前
说实话,这就是在问谁来写智能合约的参数设置。AI没有道德困境,我们有。就像流动性挖矿的APY越高风险越大,AI的优化目标越单一,偏差就越恐怖。关键还是激励机制设计,这块搞不好,比任何算法都危险。
回复0
Crypto金矿vip
· 22小时前
说白了就是我们在给AI装价值观时根本没想好自己要啥。ROI最大化和人性尊严这俩指标永远打架,Pluribus只是把这个矛盾算出来了而已。与其问AI怎么选,不如先算算我们愿意付出多少成本去维护那些"不能量化"的东西。
回复0
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)