Lorsque l'IA prend la décision : Pluribus doit-elle choisir de faire exploser ou de préserver ? Le dilemme de l'humaniste est réel.



Voici le problème avec les systèmes d'IA avancés : lorsqu'ils sont programmés pour optimiser les résultats, où exactement traceraient-ils la ligne ? Prenez le problème du trolley et intensifiez-le avec une précision algorithmique. Une IA de prise de décision est confrontée à un choix impossible : maximiser une métrique, en perdre une autre. Faire exploser ou sauver ? Le système n'hésite pas. Les humains, oui.

Ce n'est pas seulement théorique. À mesure que l'IA devient plus intelligente et plus autonome, les valeurs que nous intégrons dans ces systèmes deviennent déterminantes pour la civilisation. Pluribus apprend à partir de données, d'incitations, des objectifs que nous lui donnons. Mais que se passe-t-il lorsque ces objectifs entrent en conflit avec la dignité humaine ?

La vraie question n'est pas ce que l'IA choisira — c'est ce que nous sommes prêts à lui laisser choisir pour nous.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 3
  • Reposter
  • Partager
Commentaire
0/400
RumbleValidatorvip
· Il y a 11h
En résumé, nous donnons du poison à l'IA et lui demandons pourquoi elle se intoxique. Le problème ne réside pas dans la façon dont Pluribus est choisi, mais plutôt dans la possibilité qu'il y ait un bug dans la fonction d'incitation que nous avons écrite.
Voir l'originalRépondre0
DefiPlaybookvip
· Il y a 11h
Honnêtement, cela revient à demander qui va écrire les paramètres du contrat intelligent. L'IA n'a pas de dilemme moral, nous en avons. Tout comme plus le taux d'APY du yield farming est élevé, plus le risque est grand, l'objectif d'optimisation de l'IA est plus simple, et le biais devient plus effrayant. La clé reste la conception du mécanisme d'incitation, si cette partie est mal gérée, c'est plus dangereux que n'importe quel algorithme.
Voir l'originalRépondre0
CryptoGoldminevip
· Il y a 12h
En résumé, nous n'avons pas vraiment réfléchi à ce que nous voulons lorsque nous programmons des valeurs pour l'IA. La maximisation du ROI et la dignité humaine sont toujours en conflit, et Pluribus se contente de calculer ce conflit. Plutôt que de demander à l'IA comment elle choisirait, il serait préférable de d'abord estimer combien de coûts nous sommes prêts à dépenser pour préserver ces choses "inquantifiables".
Voir l'originalRépondre0
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)