Caminhos da IA: competição de entradas na nuvem ou aplicações nativas do lado do usuário?
Recentemente, vi que a Alibaba lançou o aplicativo Tongyi Qianwen, entrando oficialmente na batalha dos aplicativos voltados para o consumidor final. Sam Altman também expressou várias vezes sua obsessão por "super aplicativos", constantemente incorporando várias funções sociais ao ChatGPT.
Na narrativa das grandes empresas, o futuro dos aplicativos de IA parece estar destinado a ser uma cópia das atuais superaplicações da Internet – tornando-se a única entrada, reunindo várias funções em um só.
Mas o futuro das aplicações de IA realmente vai convergir para este único caminho? Existem outras possibilidades?
Se desviarmos o olhar das aplicações de chat AI genéricas e olharmos para ferramentas de programação como Cursor e Windsurf, integrando várias ferramentas MCP, talvez consigamos vislumbrar e sentir o pulso radicalmente diferente das aplicações nativas de IA (AI Native App).
O fosso desaparecido e a insegurança de todos
A atual ecologia de aplicações de IA, se usada como uma metáfora biológica, pode ser decomposta em três papéis:
* Cérebro (fornecedor do modelo LLM): fornece raciocínio, tomada de decisão e conhecimento básico. * Corpo (fornecedor do cliente): fornece a interface de interação do usuário (UI/GUI), o contexto (Context) e a memória. * Mãos e pés (fornecedor de serviços de ferramentas): fornece capacidades específicas, como pesquisa, calendário, reservas, pagamentos, etc. ferramentas MCP.
Em um estado ideal, o cliente (corpo) liga o cérebro e as mãos e pés, ajudando o usuário a resolver problemas.
Na era da Internet, as barreiras das aplicações vêm de duas coisas: a interface (UI) e a interface de programação de aplicações (API). Os usuários só conseguem realizar serviços específicos através de interfaces específicas. Mas quando a demanda pode ser expressa em linguagem natural, o Prompt torna-se a nova interface, e a barreira da API também começa a se afrouxar. As "fronteiras" entre as aplicações começam a tornar-se instáveis.
Isto leva a que cada papel no ecossistema careça extremante de segurança:
* Os fornecedores de LLM temem se tornar um "canal": Se apenas fizerem API, para os usuários será imperceptível. Hoje os usuários usam o Claude 4.5, amanhã mudam para o GPT 5.1 ou GLM-4.6, e os fornecedores de modelos podem ser substituídos a qualquer momento por poder computacional mais barato. Para não serem "canalizados", eles precisam entrar em campo e fazer o cliente (corpo), mantendo os usuários dentro do seu aplicativo. * O cliente teme ser "estrangulado": isto é, a chamada ansiedade de "embalagem". Se o cérebro central estiver nas mãos de terceiros, pode ser interrompido ou ter o preço aumentado a qualquer momento. Assim, aqueles que desenvolvem aplicações também começam a treinar seus próprios modelos, tentando possuir o cérebro. * As ferramentas temem a "invisibilidade": por exemplo, se uma plataforma de recomendações de serviços locais se transformar numa ferramenta MCP, os usuários interagindo diretamente com a IA para consultas farão com que essa plataforma se torne completamente um fornecedor de API de base, e o valor da sua interface original e a receita publicitária colapsarão diretamente. Assim, eles também não estão dispostos a isso, tentando empurrar funcionalidades de IA em suas próprias aplicações, na tentativa de reter usuários.
O resultado deste "ansiedade coletiva" é o caos atual: todos estão a fazer full stack, todos estão a tentar controlar completamente o cérebro, o corpo e os membros.
Caminho um: Leviatã na Nuvem (Entrada Super)
Para resolver essa ansiedade, a solução apresentada pelas grandes empresas está muito em linha com seu pensamento habitual: replicar a história das superaplicações da internet.
Na opinião dos fabricantes de modelos, a montagem do cérebro e dos membros não deve ocorrer no cliente, pois assim o controle fica nas mãos do usuário. Eles esperam que o cliente retorne a um modo de "cliente leve" (Thin Client) - mantendo apenas a capacidade de receber instruções de voz ou texto.
Nesta arquitetura:
Cérebro na nuvem: Decisões e raciocínios totalmente controlados pelo fornecedor. Mãos e pés nas nuvens: Aceder ao backend das grandes empresas através de Function Calling ou Plugin. Memória na nuvem: todos os dados, preferências e histórico do usuário são carregados.
Dessa forma, é possível reproduzir perfeitamente a lógica das superaplicações e ser ainda mais aterrorizante do que as superaplicações da internet. Porque na era da internet, embora as superaplicações monopolizem o tráfego, a quantidade de dados entre os serviços ainda está isolada. Mas na "superaplicação de IA", os fornecedores não apenas controlam a entrada, mas também dominam toda a lógica de decisão intermediária através dos modelos.
Este é um "Leviatã nas Nuvens" perfeito, extremamente eficiente, mas os usuários neste sistema não têm qualquer privacidade ou poder de escolha, sendo apenas objetos de alimentação para o algoritmo.
Caminho Dois: Aplicações Nativas de IA - Integração do Lado do Usuário
Mas há também outra possibilidade, essa tendência já é bastante evidente na área da programação.
Veja agora o editor de IA (IDE): o corpo está do lado do usuário, a base de código (Codebase) está localmente, toda a lógica de negócios e contexto estão localmente.
O cérebro é plugável: você pode configurar diferentes modelos no IDE, mesmo que o IDE não suporte configuração, adicionar uma camada de proxy de interface para conversão também pode resolver. As mãos e os pés são padronizados: A emergência de protocolos como o MCP transformou ferramentas como bancos de dados, Git e terminais em blocos de Lego padrão.
Nesta arquitetura, a aplicação não é um muro que mantém os usuários confinados pelas grandes empresas, mas sim um "exoesqueleto" que se veste nos usuários.
Neste modo, a integração ocorre no cliente. A aplicação organiza os dados locais do usuário (Contexto) e, conforme necessário, chama o "cérebro" na nuvem ou local para reflexão, depois instrui os "membros padronizados" a executar.
Os dados e a lógica principais permanecem do lado do usuário. Pelo menos, os seus dados não estão todos nas mãos do mesmo fornecedor; pelo menos, quando um determinado modelo se torna menos inteligente, você pode trocar por um cérebro mais inteligente.
Claro, este caminho não é fácil, o maior desafio é a falta de infraestrutura: se não houver grandes empresas a aplicar a autenticação de identidade (Auth) na nuvem de forma unificada, é um enorme desafio integrar a identidade, o pagamento e construir um modelo de negócios sustentável nos serviços de ferramentas no cliente, e atualmente não se vê um caminho claro.
Mas eu acredito que a ID descentralizada (DID) e a rede de pagamentos no campo do Crypto podem desempenhar um papel importante aqui, fornecendo a base de confiança e liquidação para essa colaboração descentralizada de IA. Vamos discutir este tópico mais detalhadamente no próximo artigo.
O jogo do futuro
A evolução tecnológica atual encontra-se em uma encruzilhada: por um lado, grandes empresas tentam "concentrar" todas as capacidades atrás de suas APIs, construindo ecossistemas fechados; por outro lado, desenvolvedores utilizam tecnologias como MCP, Local LLM, entre outras, tentando construir um ecossistema aberto e "desacoplado".
O futuro depende da interação entre os usuários, fornecedores e desenvolvedores no presente. As escolhas de cada um na verdade estão a votar em um dos dois futuros.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Caminhos da IA: competição de entradas na nuvem ou aplicações nativas do lado do usuário?
Recentemente, vi que a Alibaba lançou o aplicativo Tongyi Qianwen, entrando oficialmente na batalha dos aplicativos voltados para o consumidor final. Sam Altman também expressou várias vezes sua obsessão por "super aplicativos", constantemente incorporando várias funções sociais ao ChatGPT.
Na narrativa das grandes empresas, o futuro dos aplicativos de IA parece estar destinado a ser uma cópia das atuais superaplicações da Internet – tornando-se a única entrada, reunindo várias funções em um só.
Mas o futuro das aplicações de IA realmente vai convergir para este único caminho? Existem outras possibilidades?
Se desviarmos o olhar das aplicações de chat AI genéricas e olharmos para ferramentas de programação como Cursor e Windsurf, integrando várias ferramentas MCP, talvez consigamos vislumbrar e sentir o pulso radicalmente diferente das aplicações nativas de IA (AI Native App).
O fosso desaparecido e a insegurança de todos
A atual ecologia de aplicações de IA, se usada como uma metáfora biológica, pode ser decomposta em três papéis:
* Cérebro (fornecedor do modelo LLM): fornece raciocínio, tomada de decisão e conhecimento básico.
* Corpo (fornecedor do cliente): fornece a interface de interação do usuário (UI/GUI), o contexto (Context) e a memória.
* Mãos e pés (fornecedor de serviços de ferramentas): fornece capacidades específicas, como pesquisa, calendário, reservas, pagamentos, etc. ferramentas MCP.
Em um estado ideal, o cliente (corpo) liga o cérebro e as mãos e pés, ajudando o usuário a resolver problemas.
Na era da Internet, as barreiras das aplicações vêm de duas coisas: a interface (UI) e a interface de programação de aplicações (API). Os usuários só conseguem realizar serviços específicos através de interfaces específicas. Mas quando a demanda pode ser expressa em linguagem natural, o Prompt torna-se a nova interface, e a barreira da API também começa a se afrouxar. As "fronteiras" entre as aplicações começam a tornar-se instáveis.
Isto leva a que cada papel no ecossistema careça extremante de segurança:
* Os fornecedores de LLM temem se tornar um "canal": Se apenas fizerem API, para os usuários será imperceptível. Hoje os usuários usam o Claude 4.5, amanhã mudam para o GPT 5.1 ou GLM-4.6, e os fornecedores de modelos podem ser substituídos a qualquer momento por poder computacional mais barato. Para não serem "canalizados", eles precisam entrar em campo e fazer o cliente (corpo), mantendo os usuários dentro do seu aplicativo.
* O cliente teme ser "estrangulado": isto é, a chamada ansiedade de "embalagem". Se o cérebro central estiver nas mãos de terceiros, pode ser interrompido ou ter o preço aumentado a qualquer momento. Assim, aqueles que desenvolvem aplicações também começam a treinar seus próprios modelos, tentando possuir o cérebro.
* As ferramentas temem a "invisibilidade": por exemplo, se uma plataforma de recomendações de serviços locais se transformar numa ferramenta MCP, os usuários interagindo diretamente com a IA para consultas farão com que essa plataforma se torne completamente um fornecedor de API de base, e o valor da sua interface original e a receita publicitária colapsarão diretamente. Assim, eles também não estão dispostos a isso, tentando empurrar funcionalidades de IA em suas próprias aplicações, na tentativa de reter usuários.
O resultado deste "ansiedade coletiva" é o caos atual: todos estão a fazer full stack, todos estão a tentar controlar completamente o cérebro, o corpo e os membros.
Caminho um: Leviatã na Nuvem (Entrada Super)
Para resolver essa ansiedade, a solução apresentada pelas grandes empresas está muito em linha com seu pensamento habitual: replicar a história das superaplicações da internet.
Na opinião dos fabricantes de modelos, a montagem do cérebro e dos membros não deve ocorrer no cliente, pois assim o controle fica nas mãos do usuário. Eles esperam que o cliente retorne a um modo de "cliente leve" (Thin Client) - mantendo apenas a capacidade de receber instruções de voz ou texto.
Nesta arquitetura:
Cérebro na nuvem: Decisões e raciocínios totalmente controlados pelo fornecedor.
Mãos e pés nas nuvens: Aceder ao backend das grandes empresas através de Function Calling ou Plugin.
Memória na nuvem: todos os dados, preferências e histórico do usuário são carregados.
Dessa forma, é possível reproduzir perfeitamente a lógica das superaplicações e ser ainda mais aterrorizante do que as superaplicações da internet. Porque na era da internet, embora as superaplicações monopolizem o tráfego, a quantidade de dados entre os serviços ainda está isolada. Mas na "superaplicação de IA", os fornecedores não apenas controlam a entrada, mas também dominam toda a lógica de decisão intermediária através dos modelos.
Este é um "Leviatã nas Nuvens" perfeito, extremamente eficiente, mas os usuários neste sistema não têm qualquer privacidade ou poder de escolha, sendo apenas objetos de alimentação para o algoritmo.
Caminho Dois: Aplicações Nativas de IA - Integração do Lado do Usuário
Mas há também outra possibilidade, essa tendência já é bastante evidente na área da programação.
Veja agora o editor de IA (IDE): o corpo está do lado do usuário, a base de código (Codebase) está localmente, toda a lógica de negócios e contexto estão localmente.
O cérebro é plugável: você pode configurar diferentes modelos no IDE, mesmo que o IDE não suporte configuração, adicionar uma camada de proxy de interface para conversão também pode resolver.
As mãos e os pés são padronizados: A emergência de protocolos como o MCP transformou ferramentas como bancos de dados, Git e terminais em blocos de Lego padrão.
Nesta arquitetura, a aplicação não é um muro que mantém os usuários confinados pelas grandes empresas, mas sim um "exoesqueleto" que se veste nos usuários.
Neste modo, a integração ocorre no cliente. A aplicação organiza os dados locais do usuário (Contexto) e, conforme necessário, chama o "cérebro" na nuvem ou local para reflexão, depois instrui os "membros padronizados" a executar.
Os dados e a lógica principais permanecem do lado do usuário. Pelo menos, os seus dados não estão todos nas mãos do mesmo fornecedor; pelo menos, quando um determinado modelo se torna menos inteligente, você pode trocar por um cérebro mais inteligente.
Claro, este caminho não é fácil, o maior desafio é a falta de infraestrutura: se não houver grandes empresas a aplicar a autenticação de identidade (Auth) na nuvem de forma unificada, é um enorme desafio integrar a identidade, o pagamento e construir um modelo de negócios sustentável nos serviços de ferramentas no cliente, e atualmente não se vê um caminho claro.
Mas eu acredito que a ID descentralizada (DID) e a rede de pagamentos no campo do Crypto podem desempenhar um papel importante aqui, fornecendo a base de confiança e liquidação para essa colaboração descentralizada de IA. Vamos discutir este tópico mais detalhadamente no próximo artigo.
O jogo do futuro
A evolução tecnológica atual encontra-se em uma encruzilhada: por um lado, grandes empresas tentam "concentrar" todas as capacidades atrás de suas APIs, construindo ecossistemas fechados; por outro lado, desenvolvedores utilizam tecnologias como MCP, Local LLM, entre outras, tentando construir um ecossistema aberto e "desacoplado".
O futuro depende da interação entre os usuários, fornecedores e desenvolvedores no presente. As escolhas de cada um na verdade estão a votar em um dos dois futuros.