當 AI 做出決策時:Pluribus 應該選擇引爆還是保存?厭世者的困境是真實存在的。



關於先進 AI 系統的事情——當它們被程式設計來優化結果時,它們究竟在哪裡劃定界線?以電車難題為例,並用算法精確度來加強它。決策 AI 面臨一個不可能的選擇:最大化一個指標,犧牲另一個。引爆還是拯救?系統毫不猶豫。人類卻猶豫不決。

這不僅僅是理論上的問題。隨著 AI 變得越來越聰明和自主,我們將這些系統中嵌入的價值觀變成文明的定義。Pluribus 從數據、激勵和我們提供的目標中學習。但當這些目標與人類尊嚴產生衝突時,會發生什麼?

真正的問題不在於 AI 會做出什麼選擇——而在於我們願意讓它為我們做出什麼選擇。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 3
  • 轉發
  • 分享
留言
0/400
RumbleValidatorvip
· 16小時前
說白了就是我們在給AI喂毒藥然後問它為什麼要中毒,問題根本不在Pluribus怎麼選,在咱們寫的那套激勵函數是不是有bug。
查看原文回復0
DeFi攻略vip
· 16小時前
說實話,這就是在問誰來寫智能合約的參數設置。AI沒有道德困境,我們有。就像流動性挖礦的APY越高風險越大,AI的優化目標越單一,偏差就越可怕。關鍵還是激勵機制設計,這塊搞不好,比任何算法都危險。
查看原文回復0
Crypto金矿vip
· 16小時前
說白了就是我們在給AI裝價值觀時根本沒想好自己要啥。ROI最大化和人性尊嚴這兩個指標永遠衝突,Pluribus只是把這個矛盾算出來而已。與其問AI怎麼選,不如先算算我們願意付出多少成本去維護那些"不能量化"的東西。
查看原文回復0
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)