🚨 QUEBRANDO: OpenAI publicou um artigo provando que o ChatGPT sempre inventará coisas.



Não às vezes. Não antes da próxima atualização. Sempre. Eles provaram isso em matemática.

Mesmo com dados de treino perfeitos e uma potência de cálculo ilimitada, os modelos de IA sempre dirão com confiança coisas que estão completamente erradas. Não é um bug em que estejam a trabalhar. Isso explica como esses sistemas funcionam a nível fundamental.

E os seus próprios números são brutais. O modelo de raciocínio o1 da OpenAI hallucina em 16% dos casos. O seu novo modelo O3? 33 por cento. O seu novo o4-mini? 48 por cento. Quase metade das informações fornecidas pelo seu último modelo podem ser fabricadas. Os modelos "mais inteligentes" estão na verdade a ficar cada vez piores a dizer a verdade.

Aqui está o porquê de isso não poder ser corrigido. Os modelos linguísticos funcionam ao prever a próxima palavra com base na probabilidade. Quando encontram uma situação incerta, não param. Não o sinalizam. Eles assumem. E especulam com total confiança, porque é exatamente para isso que foram treinados.

Os investigadores analisaram os 10 principais critérios de inteligência artificial usados para medir a qualidade desses modelos. 9 em 10 dão a mesma nota por dizer "não sei" do que por dar uma resposta completamente errada: zero pontos. Todo o sistema de testes literalmente penaliza a honestidade e recompensa a conjectura.

A IA aprendeu, portanto, a estratégia ótima: sempre adivinhar. Nunca admitir incerteza. Parece confiante mesmo quando inventa.

Qual é a solução proposta pela OpenAI? Pedir ao ChatGPT para dizer "Não sei" quando não estiver seguro. Os seus próprios cálculos mostram que isso significaria que cerca de 30% das suas perguntas não teriam resposta. Imagine perguntar algo ao ChatGPT três vezes em dez e receber "Não estou confiante o suficiente para responder". Os utilizadores desapareceriam durante a noite. Portanto, a correção existe, mas mataria o produto.

Não é apenas um problema da OpenAI. A DeepMind e a Universidade de Tsinghua chegaram independentemente à mesma conclusão. Três dos melhores laboratórios de IA do mundo, trabalhando separadamente, concordam: é permanente.

Sempre que o ChatGPT lhe der uma resposta, pergunte-se: é real ou é apenas uma suposição confiante?

Aqui está a resposta de Come-from-Beyond 👇
Eles começam a entender porquê

#QUBIC #Aigarth .* colocaram a capacidade de dizer "Não sei" no centro das suas preocupações

$QUBIC
QUBIC2,86%
Ver original
post-image
post-image
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar