Quando a IA toma a decisão: Deve a Pluribus optar por detonar ou preservar? O dilema do misantropo é real.
Aqui está o que acontece com sistemas avançados de IA—quando são programados para otimizar resultados, onde exatamente eles traçam a linha? Pegue o problema do bonde e potencialize-o com precisão algorítmica. Uma IA de tomada de decisão enfrenta uma escolha impossível: maximizar uma métrica, perder outra. Detonar ou salvar? O sistema não hesita. Os humanos hesitam.
Isto não é apenas teórico. À medida que a IA fica mais inteligente e mais autónoma, os valores que incorporamos nesses sistemas tornam-se definidores da civilização. A Pluribus aprende com dados, com incentivos, com os objetivos que lhe alimentamos. Mas o que acontece quando esses objetivos entram em conflito com a dignidade humana?
A verdadeira questão não é o que a IA escolherá—é o que estamos dispostos a deixar que ela escolha por nós.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
7 Curtidas
Recompensa
7
3
Repostar
Compartilhar
Comentário
0/400
RumbleValidator
· 14h atrás
Em resumo, estamos alimentando a IA com veneno e perguntando por que ela está se envenenando. A questão não está em como o Pluribus escolhe, mas sim se há um bug na nossa função de incentivo que escrevemos.
Ver originalResponder0
DefiPlaybook
· 14h atrás
Honestamente, isto é uma questão de quem vai escrever os parâmetros do contrato inteligente. A IA não tem dilemas morais, nós temos. Assim como quanto maior o APY da mineração de liquidez, maior o risco, o objetivo de otimização da IA é mais unificado, maior a distorção pode ser. O mais importante ainda é o design do mecanismo de incentivo; se feito mal, pode ser mais perigoso do que qualquer algoritmo.
Ver originalResponder0
CryptoGoldmine
· 14h atrás
Resumindo, o que estamos fazendo é simplesmente não pensar bem sobre quais valores queremos transmitir à IA. Os indicadores de maximização de ROI e dignidade humana estão sempre em conflito; o Pluribus apenas calculou esse conflito. Em vez de perguntar à IA como ela escolheria, é melhor primeiro calcular quanto estamos dispostos a gastar para preservar aquelas coisas "não quantificáveis".
Quando a IA toma a decisão: Deve a Pluribus optar por detonar ou preservar? O dilema do misantropo é real.
Aqui está o que acontece com sistemas avançados de IA—quando são programados para otimizar resultados, onde exatamente eles traçam a linha? Pegue o problema do bonde e potencialize-o com precisão algorítmica. Uma IA de tomada de decisão enfrenta uma escolha impossível: maximizar uma métrica, perder outra. Detonar ou salvar? O sistema não hesita. Os humanos hesitam.
Isto não é apenas teórico. À medida que a IA fica mais inteligente e mais autónoma, os valores que incorporamos nesses sistemas tornam-se definidores da civilização. A Pluribus aprende com dados, com incentivos, com os objetivos que lhe alimentamos. Mas o que acontece quando esses objetivos entram em conflito com a dignidade humana?
A verdadeira questão não é o que a IA escolherá—é o que estamos dispostos a deixar que ela escolha por nós.