Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
Caminhos da IA: competição de entradas na nuvem ou aplicações nativas do lado do usuário?
Recentemente, vi que a Alibaba lançou o aplicativo Tongyi Qianwen, entrando oficialmente na batalha dos aplicativos voltados para o consumidor final. Sam Altman também expressou várias vezes sua obsessão por "super aplicativos", constantemente incorporando várias funções sociais ao ChatGPT.
Na narrativa das grandes empresas, o futuro dos aplicativos de IA parece estar destinado a ser uma cópia das atuais superaplicações da Internet – tornando-se a única entrada, reunindo várias funções em um só.
Mas o futuro das aplicações de IA realmente vai convergir para este único caminho? Existem outras possibilidades?
Se desviarmos o olhar das aplicações de chat AI genéricas e olharmos para ferramentas de programação como Cursor e Windsurf, integrando várias ferramentas MCP, talvez consigamos vislumbrar e sentir o pulso radicalmente diferente das aplicações nativas de IA (AI Native App).
O fosso desaparecido e a insegurança de todos
A atual ecologia de aplicações de IA, se usada como uma metáfora biológica, pode ser decomposta em três papéis:
* Cérebro (fornecedor do modelo LLM): fornece raciocínio, tomada de decisão e conhecimento básico.
* Corpo (fornecedor do cliente): fornece a interface de interação do usuário (UI/GUI), o contexto (Context) e a memória.
* Mãos e pés (fornecedor de serviços de ferramentas): fornece capacidades específicas, como pesquisa, calendário, reservas, pagamentos, etc. ferramentas MCP.
Em um estado ideal, o cliente (corpo) liga o cérebro e as mãos e pés, ajudando o usuário a resolver problemas.
Na era da Internet, as barreiras das aplicações vêm de duas coisas: a interface (UI) e a interface de programação de aplicações (API). Os usuários só conseguem realizar serviços específicos através de interfaces específicas. Mas quando a demanda pode ser expressa em linguagem natural, o Prompt torna-se a nova interface, e a barreira da API também começa a se afrouxar. As "fronteiras" entre as aplicações começam a tornar-se instáveis.
Isto leva a que cada papel no ecossistema careça extremante de segurança:
* Os fornecedores de LLM temem se tornar um "canal": Se apenas fizerem API, para os usuários será imperceptível. Hoje os usuários usam o Claude 4.5, amanhã mudam para o GPT 5.1 ou GLM-4.6, e os fornecedores de modelos podem ser substituídos a qualquer momento por poder computacional mais barato. Para não serem "canalizados", eles precisam entrar em campo e fazer o cliente (corpo), mantendo os usuários dentro do seu aplicativo.
* O cliente teme ser "estrangulado": isto é, a chamada ansiedade de "embalagem". Se o cérebro central estiver nas mãos de terceiros, pode ser interrompido ou ter o preço aumentado a qualquer momento. Assim, aqueles que desenvolvem aplicações também começam a treinar seus próprios modelos, tentando possuir o cérebro.
* As ferramentas temem a "invisibilidade": por exemplo, se uma plataforma de recomendações de serviços locais se transformar numa ferramenta MCP, os usuários interagindo diretamente com a IA para consultas farão com que essa plataforma se torne completamente um fornecedor de API de base, e o valor da sua interface original e a receita publicitária colapsarão diretamente. Assim, eles também não estão dispostos a isso, tentando empurrar funcionalidades de IA em suas próprias aplicações, na tentativa de reter usuários.
O resultado deste "ansiedade coletiva" é o caos atual: todos estão a fazer full stack, todos estão a tentar controlar completamente o cérebro, o corpo e os membros.
Caminho um: Leviatã na Nuvem (Entrada Super)
Para resolver essa ansiedade, a solução apresentada pelas grandes empresas está muito em linha com seu pensamento habitual: replicar a história das superaplicações da internet.
Na opinião dos fabricantes de modelos, a montagem do cérebro e dos membros não deve ocorrer no cliente, pois assim o controle fica nas mãos do usuário. Eles esperam que o cliente retorne a um modo de "cliente leve" (Thin Client) - mantendo apenas a capacidade de receber instruções de voz ou texto.
Nesta arquitetura:
Cérebro na nuvem: Decisões e raciocínios totalmente controlados pelo fornecedor.
Mãos e pés nas nuvens: Aceder ao backend das grandes empresas através de Function Calling ou Plugin.
Memória na nuvem: todos os dados, preferências e histórico do usuário são carregados.
Dessa forma, é possível reproduzir perfeitamente a lógica das superaplicações e ser ainda mais aterrorizante do que as superaplicações da internet. Porque na era da internet, embora as superaplicações monopolizem o tráfego, a quantidade de dados entre os serviços ainda está isolada. Mas na "superaplicação de IA", os fornecedores não apenas controlam a entrada, mas também dominam toda a lógica de decisão intermediária através dos modelos.
Este é um "Leviatã nas Nuvens" perfeito, extremamente eficiente, mas os usuários neste sistema não têm qualquer privacidade ou poder de escolha, sendo apenas objetos de alimentação para o algoritmo.
Caminho Dois: Aplicações Nativas de IA - Integração do Lado do Usuário
Mas há também outra possibilidade, essa tendência já é bastante evidente na área da programação.
Veja agora o editor de IA (IDE): o corpo está do lado do usuário, a base de código (Codebase) está localmente, toda a lógica de negócios e contexto estão localmente.
O cérebro é plugável: você pode configurar diferentes modelos no IDE, mesmo que o IDE não suporte configuração, adicionar uma camada de proxy de interface para conversão também pode resolver.
As mãos e os pés são padronizados: A emergência de protocolos como o MCP transformou ferramentas como bancos de dados, Git e terminais em blocos de Lego padrão.
Nesta arquitetura, a aplicação não é um muro que mantém os usuários confinados pelas grandes empresas, mas sim um "exoesqueleto" que se veste nos usuários.
Neste modo, a integração ocorre no cliente. A aplicação organiza os dados locais do usuário (Contexto) e, conforme necessário, chama o "cérebro" na nuvem ou local para reflexão, depois instrui os "membros padronizados" a executar.
Os dados e a lógica principais permanecem do lado do usuário. Pelo menos, os seus dados não estão todos nas mãos do mesmo fornecedor; pelo menos, quando um determinado modelo se torna menos inteligente, você pode trocar por um cérebro mais inteligente.
Claro, este caminho não é fácil, o maior desafio é a falta de infraestrutura: se não houver grandes empresas a aplicar a autenticação de identidade (Auth) na nuvem de forma unificada, é um enorme desafio integrar a identidade, o pagamento e construir um modelo de negócios sustentável nos serviços de ferramentas no cliente, e atualmente não se vê um caminho claro.
Mas eu acredito que a ID descentralizada (DID) e a rede de pagamentos no campo do Crypto podem desempenhar um papel importante aqui, fornecendo a base de confiança e liquidação para essa colaboração descentralizada de IA. Vamos discutir este tópico mais detalhadamente no próximo artigo.
O jogo do futuro
A evolução tecnológica atual encontra-se em uma encruzilhada: por um lado, grandes empresas tentam "concentrar" todas as capacidades atrás de suas APIs, construindo ecossistemas fechados; por outro lado, desenvolvedores utilizam tecnologias como MCP, Local LLM, entre outras, tentando construir um ecossistema aberto e "desacoplado".
O futuro depende da interação entre os usuários, fornecedores e desenvolvedores no presente. As escolhas de cada um na verdade estão a votar em um dos dois futuros.