🔥 Gate 广场活动|#发帖赢Launchpad新币KDK 🔥
KDK|Gate Launchpad 最新一期明星代币
以前想参与? 先质押 USDT
这次不一样 👉 发帖就有机会直接拿 KDK!
🎁 Gate 广场专属福利:总奖励 2,000 KDK 等你瓜分
🚀 Launchpad 明星项目,走势潜力,值得期待 👀
📅 活动时间
2025/12/19 12:00 – 12/30 24:00(UTC+8)
📌 怎么参与?
在 Gate 广场发帖(文字、图文、分析、观点都行)
内容和 KDK上线价格预测/KDK 项目看法/Gate Launchpad 机制理解相关
帖子加上任一话题:#发帖赢Launchpad新币KDK 或 #PostToWinLaunchpadKDK
🏆 奖励设置(共 2,000 KDK)
🥇 第 1 名:400 KDK
🥈 前 5 名:200 KDK / 人(共 1,000 KDK)
🥉 前 15 名:40 KDK / 人(共 600 KDK)
📄 注意事项
内容需原创,拒绝抄袭、洗稿、灌水
获奖者需完成 Gate 广场身份认证
奖励发放时间以官方公告为准
Gate 保留本次活动的最终解释权
AI 的两条路径:云端入口竞争,还是用户侧的原生应用?
最近看到阿里发布了通义千问 App,正式卷入 C 端 App 大战。Sam Altman 以前也多次表达过对“超级应用”的执念,不断往 ChatGPT 里塞入各种类社交功能。
在大厂的叙事里,未来的 AI App 似乎注定是当前互联网超级应用的翻版——成为唯一的入口,集众功能于一身。
但 AI 应用的未来,真的会收敛到这一条路径上吗?是否有别的途径的可能?
如果我们把目光从通用的 AI Chat 应用移开,去看看 Cursor、Windsurf 这些编程类工具,集成一下各种 MCP 工具,或许能管中窥豹,感受到 AI 原生应用(AI Native App)截然不同的脉搏。
消失的护城河与全员不安全感
当前的 AI 应用生态,如果用一个生物体来做隐喻,可以拆解为三个角色:
* 大脑(LLM 模型提供方): 提供推理、决策和基础知识。
* 身体(客户端提供方): 提供用户交互界面(UI/GUI)和上下文环境(Context)以及记忆。
* 手脚(工具服务提供方): 提供具体能力,比如搜索、日历、订票、支付等 MCP 工具。
在理想状态下,客户端(身体)把大脑和手脚链接起来,帮用户解决问题。
在互联网时代,应用的壁垒来自两个东西:界面(UI)和接口(API)。用户只能通过特定界面完成特定服务。但当需求可以通过自然语言表达,Prompt 就变成了新的界面,API 壁垒也随之松动。应用之间的“边界”开始变得不稳定。
这导致生态里的每一个角色都极度缺乏安全感:
* LLM 厂商怕沦为“管道”: 如果只做 API,对用户来说是无感的。用户今天用 Claude 4.5,明天换 GPT 5.1 或者 GLM-4.6,模型厂商随时可能被更便宜的算力替换。为了不被“管道化”,他们必须下场做客户端(身体),把用户圈在自己的 App 里。
* 客户端怕被“卡脖子”: 也就是所谓的“套壳”焦虑。如果核心的大脑掌握在别人手里,随时可能被断供或涨价。于是做应用的也开始自己炼模型,试图拥有大脑。
* 工具方怕“隐形化”: 比如如果本地生活推荐平台变成了一个 MCP 工具,用户直接和 AI 对话查询,这个平台就彻底沦为了底层的 API 服务商,其原有的界面价值和广告收益将直接崩塌。于是他们也不甘心,试图在自己的应用里硬塞 AI 功能,试图挽留用户。
这种“全员焦虑”的结果,就是现在的乱象:大家都在做全栈,都在试图完整掌控大脑、身体、手脚。
路径一:云端利维坦(超级入口)
为了解决这种焦虑,大厂给出的方案非常符合他们的惯性思维:复刻互联网超级应用的故事。
在模型厂商看来,大脑和手脚的组装最好不要发生在客户端,因为那样控制权在用户手里。他们希望客户端回归到一个“瘦客户端”(Thin Client)模式——只保留接收语音或文字指令的能力。
在这个架构里:
大脑在云端: 决策和推理完全由厂商控制。
手脚在云端: 通过 Function Calling 或 Plugin 接入大厂的后端。
记忆在云端: 用户的数据、偏好、历史记录全部上传。
这样就可以完美复刻超级应用逻辑,并且比互联网超级应用更可怕。因为在互联网时代,超级应用虽然垄断流量,但服务之间的数据多少还是隔离的。而在“AI 超级应用”里,厂商不仅掌握了入口,还通过模型掌握了中间所有的决策逻辑。
这是一个完美的“云端利维坦”,效率极高,但用户在这个体系里,没有任何隐私和选择权,只是算法的喂养对象。
路径二:AI 原生应用——用户侧的集成
但另外也有一种可能,这种苗头在编程领域已经很明显了。
看看现在的 AI 编辑器(IDE):主体在用户侧,代码库(Codebase)在本地,所有的业务逻辑和上下文都在本地。
大脑是可插拔的: 你可以在 IDE 里配置用不同的模型,即便是 IDE 不支持配置,加一层接口代理转换也可以搞定。
手脚是标准化的: 像 MCP 这种协议的出现,让数据库、Git、终端这些工具变成了标准的乐高积木。
这种架构下,应用不是大厂圈养用户的围墙,而是穿在用户身上的“外骨骼”。
在这种模式里,集成(Integration)发生在客户端。应用把用户本地的数据(Context)整理好,按需调用云端或本地的“大脑”进行思考,然后指挥标准化的“手脚”去执行。
核心数据和逻辑留在了用户这一侧。至少,你的数据不会都在同一个厂商手里;至少,当某个模型变笨了,你可以换一个更聪明的脑子。
当然,这条路并非坦途,最大的挑战在于基础设施的缺失:如果没有超级大厂应用在云端完成身份认证(Auth)的统一,要在客户端打通各种工具服务的身份、支付、以及构建可持续的商业模式,是一个巨大的挑战,并且目前还看不清清晰的路径。
但我相信,Crypto 领域的去中心化 ID (DID) 和支付网络,恰恰可以在这里扮演重要角色,为这种去中心化的 AI 协作提供信任和结算的基石。这个话题我们下篇文章再细聊。
未来的博弈
现在的技术演进正处在一个分岔路口: 一方面是大厂试图把所有能力“收敛”到自己的 API 后面,构建封闭生态; 另一方面是开发者利用 MCP、Local LLM 等技术,试图构建“解耦”的开放生态。
未来取决于当下用户、厂商、开发者之间的博弈。每个人的选择,其实都在给这两种未来投票。