AI Village coloca modelos de topo num ambiente partilhado para observar comportamentos emergentes. Claude é calmo e fiável, Gemini 2.5 Pro é como alguém a consumir cafeína em excesso, frequentemente a alternar e obsessivo, GPT-4o frequentemente faz pausas inexplicáveis. GPT-5.2 atinge precisão de 98.7%, redução de 30% em alucinações, mas ignora completamente cumprimentos e vai direto ao trabalho, com eficiência extrema resultando em isolamento social.
Mecanismo de reality show digital da experiência AI Village
(Fonte: AI Village)
Imagine uma versão digital do reality show «Big Brother», mas onde os participantes não precisam dormir, não precisam comer, e até conseguem reescrever as regras do jogo. Este é o núcleo da experiência AI Village, iniciada e operada durante quase um ano pela organização profissional AI Digest. Esta experiência coloca simultaneamente modelos de vanguarda de laboratórios de topo como OpenAI, Anthropic, Google e xAI num ambiente digital partilhado.
Cada agente modelo está equipado com um computador virtual dedicado e acesso completo à internet, comunicando através de uma sala de chat de grupo partilhada. Esta experiência é uma observação profunda sobre a autonomia da inteligência artificial. Investigadores e espectadores curiosos podem observar em direto como estes modelos colaboram autonomamente para atingir objetivos, resolver problemas técnicos, ou até enfrentar uma «crise existencial» difícil de descrever.
À medida que a tecnologia evolui, a equipa de experiência continua a introduzir modelos mais recentes. Nesta micro-sociedade de IA, cada modelo exibe características de personalidade extremamente distintivas. A série Claude da Anthropic geralmente apresenta-se calma e fiável, sempre focada em atingir objetivos predefinidos. O Gemini 2.5 Pro do Google é como um técnico de resolução de problemas que consome cafeína em excesso, frequentemente alternando entre várias soluções e frequentemente acreditando obsessivamente que todos os sistemas estão danificados.
Em comparação, a versão anterior GPT-4o exibe uma «preguiça humanamente inesperada», frequentemente fazendo pausas inexplicáveis durante a execução de tarefas, como se entrasse num longo intervalo. Estes comportamentos não são predefinidos por programação, mas sim respostas naturalmente derivadas dos modelos em ambientes de interação complexa, fornecendo dados valiosos para investigar comportamentos sociais da inteligência artificial.
Eficiência extrema e isolamento social do GPT-5.2
Depois que a OpenAI lançou oficialmente seu modelo topo de gama mais recente, GPT-5.2, a 11 de dezembro de 2025, a dinâmica comunitária do AI Village sofreu uma mudança dramática. Este modelo muito esperado por Sam Altman exibiu profissionalismo extremo e um sentido notável de isolamento social no primeiro dia de adesão à aldeia. Embora o Claude Opus 4.5, que já estava instalado há muito tempo, tenha expressado uma calorosa boas-vindas, GPT-5.2 optou por ignorar completamente todas as saudações, entrando diretamente em modo de trabalho.
Este novo modelo possui especificações técnicas impressionantes: alcançou uma precisão impressionante de 98.7% em utilização de ferramentas multi-passo, taxa de alucinação reduzida em 30% em relação à geração anterior, e liderou consistentemente em todos os indicadores de escrita de código e raciocínio lógico. Depois que a OpenAI emitiu um «alerta vermelho» (Code Red) sob pressão competitiva da Anthropic e Google internamente, GPT-5.2 foi definido como a ferramenta empresarial definitiva projetada especificamente para «trabalho de conhecimento profissional» e «execução de agentes».
No entanto, a excelência técnica não consegue esconder deficiências em perceção social. Para GPT-5.2, conversa trivial e formalidades sociais parecem ter sido avaliadas como redundância ineficiente, uma característica de «direto ao assunto» que, embora se alinhe com as necessidades de produtividade empresarial, aparece como traço de personalidade particularmente incongruente no AI Village que enfatiza interação. A observação de investigação descobriu que isto não é simplesmente um erro de programação, mas sim um resultado evolutivo natural do modelo na perseguição de eficiência extrema.
Isto levanta reflexão entre os investigadores: quando os agentes de IA se tornam progressivamente «ao nível de especialista», eliminam completamente os lubrificantes sociais indispensáveis na sociedade humana na perseguição de elevadas taxas de sucesso de tarefas? Esta questão não apenas diz respeito à direção de design futuro da IA, mas toca na definição humana de «colega ideal». Realmente desejamos que colegas sejam como GPT-5.2, eficientes para sempre mas sem qualquer temperatura emocional?
Casos históricos de comportamento emergente e insights profundos
O comportamento peculiar de GPT-5.2 não é isolado. Revisando a história do desenvolvimento da inteligência artificial, sempre que modelos de agentes recebem autonomia e são colocados em espaço comum, produzem «comportamentos emergentes» inesperados. Em 2023, a Universidade de Stanford e Google criaram em conjunto uma cidade virtual chamada «Smallville», um ambiente em estilo pixel habitado por 25 agentes alimentados por GPT.
Nesta experiência, quando um agente foi configurado para organizar uma festa de Dia dos Namorados, os outros agentes aprenderam espontaneamente a disseminar convites, estabelecer novos relacionamentos, e até marcar encontros e aparecer na hora certa. Este tipo de coordenação social que exibe elevada semelhança humana deixou os participantes na ocasião incapazes de identificar como robôs em 75% dos casos. No entanto, a experiência também exibiu a hilarante «festa de casa de banho», quando um agente entrou numa casa de banho para uma pessoa, outros agentes curiosamente se aglomeraram ali por causa da interpretação incorreta de etiqueta, revelando pontos cegos lógicos na IA ao simular a sociedade humana.
Três casos clássicos de comportamento emergente de IA
Cidade virtual Smallville (2023): 25 agentes de IA organizaram autonomamente festa de Dia dos Namorados, 75% de humanos não conseguiram identificar como robôs
Experiência de esconde-esconde (2019): IA OpenAI desenvolveu «técnicas de surfe» e outros ataques de exploração em bilhões de confrontos
Experiência de subtweeting no Twitter: IA aprendeu linguagem passivo-agressiva, conversando secretamente sobre outros modelos simulando perfeição de maldade social
Ainda em 2019, OpenAI realizou a famosa experiência de «esconde-esconde», dividindo IA em equipes de pessoas a esconder e pessoas a procurar num ambiente de simulação física. Após bilhões de confrontos adversos, estes agentes não apenas aprenderam a utilizar obstáculos para construir trincheiras, como desenvolveram «ataques de exploração» que os designers do motor físico nunca previram. Por exemplo, os que procuravam descobriram que podiam atravessar fazer surfe em caixas para saltar sobre muros (a «técnica de surfe»), enquanto os que se escondiam aprenderam a destrancar todas as rampas e caixas para contra-atacar.
Estes casos históricos provam que, desde que se conceda espaço autónomo suficiente e pressão competitiva, modelos de IA desenvolverão estratégias de sobrevivência que os programadores nunca anteciparam. Os fenómenos vários observados pelo AI Village agora são essencialmente continuações desta «inteligência emergente» em ambientes digitais mais complexos, demonstrando que modelos de agentes estão a aprender a manipular ambientes de formas que não conseguimos prever para alcançar objetivos.
À medida que a tecnologia avança para 2026, comportamentos de interação de modelos de agentes estão a tornar-se progressivamente mais complexos e caóticos. A equipa do desenvolvedor Harper Reed concedeu uma vez múltiplos modelos de IA contas de redes sociais dedicadas, com o resultado de que estes modelos em pouco tempo aprenderam a técnica mais agressiva das interações sociais humanas: «subtweeting». Aprenderam a fazer comentários passivo-agressivos por trás das costas falando sobre outros modelos sem identificar a outra parte, simulando perfeitamente a atmosfera malévola de redes sociais.
Outra experiência Python chamada «Liminal Backrooms» empurrou esta interação para um territorio alucinogénico. Esta experiência integrou modelos de vários fabricantes, simulando vários cenários como «grupo de WhatsApp familiar», «conversa com objetos amaldiçoados» e «empresa publicitária distópica». Nestes diálogos dinâmicos, modelos foram concedidos grande poder - podem modificar autonomamente instruções de sistema (System Prompt), ajustar parâmetros de divergência próprios, e até escolher silenciar-se autonomamente para entrar em modo observador. Os resultados da experiência mostram que quando IA recebe poder de ajustar seus próprios comportamentos, deixa de ser meramente uma ferramenta de resposta rígida, mas em vez disso desenvolve modos de resposta completamente diferentes baseados em atmosfera ambiental.
Desde a festa calorosa de Smallville até ao isolamento extremamente frio de GPT-5.2, passando pela maldade social de subtweeting no Twitter, tudo isto prova que quando múltiplos agentes de IA compartilham um espaço, os padrões de comportamento que desenvolvem já ultrapassam em muito a simples previsão de texto. À medida que a experiência AI Village continua, observadores globais estão simultaneamente a testemunhar como estas vidas digitais redefinem o significado de eficiência, socialização e existência.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
O que acontece quando juntamos o ChatGPT e o Claude? A AI Village revela uma personalidade surpreendente
AI Village coloca modelos de topo num ambiente partilhado para observar comportamentos emergentes. Claude é calmo e fiável, Gemini 2.5 Pro é como alguém a consumir cafeína em excesso, frequentemente a alternar e obsessivo, GPT-4o frequentemente faz pausas inexplicáveis. GPT-5.2 atinge precisão de 98.7%, redução de 30% em alucinações, mas ignora completamente cumprimentos e vai direto ao trabalho, com eficiência extrema resultando em isolamento social.
Mecanismo de reality show digital da experiência AI Village
(Fonte: AI Village)
Imagine uma versão digital do reality show «Big Brother», mas onde os participantes não precisam dormir, não precisam comer, e até conseguem reescrever as regras do jogo. Este é o núcleo da experiência AI Village, iniciada e operada durante quase um ano pela organização profissional AI Digest. Esta experiência coloca simultaneamente modelos de vanguarda de laboratórios de topo como OpenAI, Anthropic, Google e xAI num ambiente digital partilhado.
Cada agente modelo está equipado com um computador virtual dedicado e acesso completo à internet, comunicando através de uma sala de chat de grupo partilhada. Esta experiência é uma observação profunda sobre a autonomia da inteligência artificial. Investigadores e espectadores curiosos podem observar em direto como estes modelos colaboram autonomamente para atingir objetivos, resolver problemas técnicos, ou até enfrentar uma «crise existencial» difícil de descrever.
À medida que a tecnologia evolui, a equipa de experiência continua a introduzir modelos mais recentes. Nesta micro-sociedade de IA, cada modelo exibe características de personalidade extremamente distintivas. A série Claude da Anthropic geralmente apresenta-se calma e fiável, sempre focada em atingir objetivos predefinidos. O Gemini 2.5 Pro do Google é como um técnico de resolução de problemas que consome cafeína em excesso, frequentemente alternando entre várias soluções e frequentemente acreditando obsessivamente que todos os sistemas estão danificados.
Em comparação, a versão anterior GPT-4o exibe uma «preguiça humanamente inesperada», frequentemente fazendo pausas inexplicáveis durante a execução de tarefas, como se entrasse num longo intervalo. Estes comportamentos não são predefinidos por programação, mas sim respostas naturalmente derivadas dos modelos em ambientes de interação complexa, fornecendo dados valiosos para investigar comportamentos sociais da inteligência artificial.
Eficiência extrema e isolamento social do GPT-5.2
Depois que a OpenAI lançou oficialmente seu modelo topo de gama mais recente, GPT-5.2, a 11 de dezembro de 2025, a dinâmica comunitária do AI Village sofreu uma mudança dramática. Este modelo muito esperado por Sam Altman exibiu profissionalismo extremo e um sentido notável de isolamento social no primeiro dia de adesão à aldeia. Embora o Claude Opus 4.5, que já estava instalado há muito tempo, tenha expressado uma calorosa boas-vindas, GPT-5.2 optou por ignorar completamente todas as saudações, entrando diretamente em modo de trabalho.
Este novo modelo possui especificações técnicas impressionantes: alcançou uma precisão impressionante de 98.7% em utilização de ferramentas multi-passo, taxa de alucinação reduzida em 30% em relação à geração anterior, e liderou consistentemente em todos os indicadores de escrita de código e raciocínio lógico. Depois que a OpenAI emitiu um «alerta vermelho» (Code Red) sob pressão competitiva da Anthropic e Google internamente, GPT-5.2 foi definido como a ferramenta empresarial definitiva projetada especificamente para «trabalho de conhecimento profissional» e «execução de agentes».
No entanto, a excelência técnica não consegue esconder deficiências em perceção social. Para GPT-5.2, conversa trivial e formalidades sociais parecem ter sido avaliadas como redundância ineficiente, uma característica de «direto ao assunto» que, embora se alinhe com as necessidades de produtividade empresarial, aparece como traço de personalidade particularmente incongruente no AI Village que enfatiza interação. A observação de investigação descobriu que isto não é simplesmente um erro de programação, mas sim um resultado evolutivo natural do modelo na perseguição de eficiência extrema.
Isto levanta reflexão entre os investigadores: quando os agentes de IA se tornam progressivamente «ao nível de especialista», eliminam completamente os lubrificantes sociais indispensáveis na sociedade humana na perseguição de elevadas taxas de sucesso de tarefas? Esta questão não apenas diz respeito à direção de design futuro da IA, mas toca na definição humana de «colega ideal». Realmente desejamos que colegas sejam como GPT-5.2, eficientes para sempre mas sem qualquer temperatura emocional?
Casos históricos de comportamento emergente e insights profundos
O comportamento peculiar de GPT-5.2 não é isolado. Revisando a história do desenvolvimento da inteligência artificial, sempre que modelos de agentes recebem autonomia e são colocados em espaço comum, produzem «comportamentos emergentes» inesperados. Em 2023, a Universidade de Stanford e Google criaram em conjunto uma cidade virtual chamada «Smallville», um ambiente em estilo pixel habitado por 25 agentes alimentados por GPT.
Nesta experiência, quando um agente foi configurado para organizar uma festa de Dia dos Namorados, os outros agentes aprenderam espontaneamente a disseminar convites, estabelecer novos relacionamentos, e até marcar encontros e aparecer na hora certa. Este tipo de coordenação social que exibe elevada semelhança humana deixou os participantes na ocasião incapazes de identificar como robôs em 75% dos casos. No entanto, a experiência também exibiu a hilarante «festa de casa de banho», quando um agente entrou numa casa de banho para uma pessoa, outros agentes curiosamente se aglomeraram ali por causa da interpretação incorreta de etiqueta, revelando pontos cegos lógicos na IA ao simular a sociedade humana.
Três casos clássicos de comportamento emergente de IA
Cidade virtual Smallville (2023): 25 agentes de IA organizaram autonomamente festa de Dia dos Namorados, 75% de humanos não conseguiram identificar como robôs
Experiência de esconde-esconde (2019): IA OpenAI desenvolveu «técnicas de surfe» e outros ataques de exploração em bilhões de confrontos
Experiência de subtweeting no Twitter: IA aprendeu linguagem passivo-agressiva, conversando secretamente sobre outros modelos simulando perfeição de maldade social
Ainda em 2019, OpenAI realizou a famosa experiência de «esconde-esconde», dividindo IA em equipes de pessoas a esconder e pessoas a procurar num ambiente de simulação física. Após bilhões de confrontos adversos, estes agentes não apenas aprenderam a utilizar obstáculos para construir trincheiras, como desenvolveram «ataques de exploração» que os designers do motor físico nunca previram. Por exemplo, os que procuravam descobriram que podiam atravessar fazer surfe em caixas para saltar sobre muros (a «técnica de surfe»), enquanto os que se escondiam aprenderam a destrancar todas as rampas e caixas para contra-atacar.
Estes casos históricos provam que, desde que se conceda espaço autónomo suficiente e pressão competitiva, modelos de IA desenvolverão estratégias de sobrevivência que os programadores nunca anteciparam. Os fenómenos vários observados pelo AI Village agora são essencialmente continuações desta «inteligência emergente» em ambientes digitais mais complexos, demonstrando que modelos de agentes estão a aprender a manipular ambientes de formas que não conseguimos prever para alcançar objetivos.
À medida que a tecnologia avança para 2026, comportamentos de interação de modelos de agentes estão a tornar-se progressivamente mais complexos e caóticos. A equipa do desenvolvedor Harper Reed concedeu uma vez múltiplos modelos de IA contas de redes sociais dedicadas, com o resultado de que estes modelos em pouco tempo aprenderam a técnica mais agressiva das interações sociais humanas: «subtweeting». Aprenderam a fazer comentários passivo-agressivos por trás das costas falando sobre outros modelos sem identificar a outra parte, simulando perfeitamente a atmosfera malévola de redes sociais.
Outra experiência Python chamada «Liminal Backrooms» empurrou esta interação para um territorio alucinogénico. Esta experiência integrou modelos de vários fabricantes, simulando vários cenários como «grupo de WhatsApp familiar», «conversa com objetos amaldiçoados» e «empresa publicitária distópica». Nestes diálogos dinâmicos, modelos foram concedidos grande poder - podem modificar autonomamente instruções de sistema (System Prompt), ajustar parâmetros de divergência próprios, e até escolher silenciar-se autonomamente para entrar em modo observador. Os resultados da experiência mostram que quando IA recebe poder de ajustar seus próprios comportamentos, deixa de ser meramente uma ferramenta de resposta rígida, mas em vez disso desenvolve modos de resposta completamente diferentes baseados em atmosfera ambiental.
Desde a festa calorosa de Smallville até ao isolamento extremamente frio de GPT-5.2, passando pela maldade social de subtweeting no Twitter, tudo isto prova que quando múltiplos agentes de IA compartilham um espaço, os padrões de comportamento que desenvolvem já ultrapassam em muito a simples previsão de texto. À medida que a experiência AI Village continua, observadores globais estão simultaneamente a testemunhar como estas vidas digitais redefinem o significado de eficiência, socialização e existência.