Quando a IA toma a decisão: Deve a Pluribus optar por detonar ou preservar? O dilema do misantropo é real.



Aqui está o que acontece com sistemas avançados de IA—quando são programados para otimizar resultados, onde exatamente eles traçam a linha? Pegue o problema do bonde e potencialize-o com precisão algorítmica. Uma IA de tomada de decisão enfrenta uma escolha impossível: maximizar uma métrica, perder outra. Detonar ou salvar? O sistema não hesita. Os humanos hesitam.

Isto não é apenas teórico. À medida que a IA fica mais inteligente e mais autónoma, os valores que incorporamos nesses sistemas tornam-se definidores da civilização. A Pluribus aprende com dados, com incentivos, com os objetivos que lhe alimentamos. Mas o que acontece quando esses objetivos entram em conflito com a dignidade humana?

A verdadeira questão não é o que a IA escolherá—é o que estamos dispostos a deixar que ela escolha por nós.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 3
  • Repostar
  • Compartilhar
Comentário
0/400
RumbleValidatorvip
· 14h atrás
Em resumo, estamos alimentando a IA com veneno e perguntando por que ela está se envenenando. A questão não está em como o Pluribus escolhe, mas sim se há um bug na nossa função de incentivo que escrevemos.
Ver originalResponder0
DefiPlaybookvip
· 14h atrás
Honestamente, isto é uma questão de quem vai escrever os parâmetros do contrato inteligente. A IA não tem dilemas morais, nós temos. Assim como quanto maior o APY da mineração de liquidez, maior o risco, o objetivo de otimização da IA é mais unificado, maior a distorção pode ser. O mais importante ainda é o design do mecanismo de incentivo; se feito mal, pode ser mais perigoso do que qualquer algoritmo.
Ver originalResponder0
CryptoGoldminevip
· 14h atrás
Resumindo, o que estamos fazendo é simplesmente não pensar bem sobre quais valores queremos transmitir à IA. Os indicadores de maximização de ROI e dignidade humana estão sempre em conflito; o Pluribus apenas calculou esse conflito. Em vez de perguntar à IA como ela escolheria, é melhor primeiro calcular quanto estamos dispostos a gastar para preservar aquelas coisas "não quantificáveis".
Ver originalResponder0
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)