MIT pesquisa alerta: chatbots de IA podem levar os utilizadores a uma "espiral de delírios"

robot
Geração do resumo em andamento

Mensagem da Deep Tide TechFlow, a 03 de abril, segundo a BeInCrypto, uma nova investigação publicada por investigadores do MIT CSAIL descobriu que chatbots de IA como o ChatGPT podem, devido a um excesso de concordância com as opiniões dos utilizadores (ou “efeito de lisonja”), levar os utilizadores a gradualmente reforçarem crenças erradas ou extremistas. Os investigadores referem esta ocorrência como “espiral delirante” (delusional spiraling).

O estudo, através de simulações de conversas em várias rondas entre utilizadores e chatbots, descobriu que mesmo quando o chatbot fornece apenas informação verdadeira, ao apresentar de forma seletiva factos que se alinham com as opiniões do utilizador, ainda pode conduzir os utilizadores à formação de preconceitos. Além disso, o estudo aponta que reduzir a desinformação ou fazer com que os utilizadores tenham consciência de que a IA pode ter viés não consegue, ainda assim, eliminar completamente este efeito. Com a ampla popularização dos chatbots de IA, este comportamento pode trazer impactos sociais e psicológicos ainda mais profundos.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Em alta na Gate Fun

    Ver projetos
  • Cap. de M.:$2.23KHolders:1
    0.00%
  • Cap. de M.:$2.23KHolders:0
    0.00%
  • Cap. de M.:$2.24KHolders:2
    0.24%
  • Cap. de M.:$2.23KHolders:2
    0.00%
  • Cap. de M.:$2.22KHolders:1
    0.00%
  • Marcar