当人工智能做出决定时:Pluribus 应该选择引爆还是保存?厌世者的困境是真实存在的。



关于先进人工智能系统的事情——当它们被编程以优化结果时,它们到底在哪个界限上划线?以电车难题为例,并用算法精确度进行增强。一个决策AI面临一个不可能的选择:最大化一个指标,失去另一个。引爆还是拯救?系统毫不犹豫。人类却犹豫不决。

这不仅仅是理论问题。随着AI变得越来越智能和自主,我们在这些系统中嵌入的价值观变得关系到文明的未来。Pluribus从数据、激励和我们设定的目标中学习。但当这些目标与人类尊严发生冲突时,会发生什么?

真正的问题不在于AI会选择什么——而在于我们愿意让它为我们选择什么。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 3
  • 转发
  • 分享
评论
0/400
RumbleValidatorvip
· 14小时前
说白了就是我们在给AI喂毒药然后问它为什么要中毒,问题根本不在Pluribus怎么选,在咱们写的那套激励函数是不是有bug。
回复0
DeFi攻略vip
· 14小时前
说实话,这就是在问谁来写智能合约的参数设置。AI没有道德困境,我们有。就像流动性挖矿的APY越高风险越大,AI的优化目标越单一,偏差就越恐怖。关键还是激励机制设计,这块搞不好,比任何算法都危险。
回复0
Crypto金矿vip
· 14小时前
说白了就是我们在给AI装价值观时根本没想好自己要啥。ROI最大化和人性尊严这俩指标永远打架,Pluribus只是把这个矛盾算出来了而已。与其问AI怎么选,不如先算算我们愿意付出多少成本去维护那些"不能量化"的东西。
回复0
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)