Два пути ИИ: конкуренция облачного входа или нативные приложения на стороне пользователя?



Недавно увидел, что Alibaba выпустила приложение Tongyi Qianwen, официально вступив в битву приложений для конечного пользователя. Сэм Альтман также неоднократно высказывал свою одержимость "суперприложениями", постоянно добавляя в ChatGPT различные социальные функции.

В нарративе крупных компаний будущее AI приложения, похоже, предопределено стать копией текущих суперприложений интернета — стать единой точкой доступа, объединяющей в себе множество функций.

Но действительно ли будущее AI-приложений будет сводиться только к этому пути? Есть ли возможность других путей?

Если мы отвлечемся от универсальных приложений AI Chat и посмотрим на такие инструменты программирования, как Cursor и Windsurf, интегрировав различные инструменты MCP, возможно, мы сможем увидеть лишь часть, но почувствовать совершенно другой пульс нативных приложений AI (AI Native App).

Исчезнувший защитный ров и всеобщее чувство небезопасности

Текущая экосистема приложений ИИ, если использовать метафору биологического организма, может быть разделена на три роли:

* Мозг (поставщик LLM модели): предоставляет выводы, решения и базовые знания.
* Тело (сторона клиента): Предоставляет интерфейс взаимодействия с пользователем (UI/GUI), контекстную среду (Context) и память.
* Руки и ноги (поставщик инструментов и услуг): предоставляют конкретные возможности, такие как поиск, календарь, бронирование, платежи и другие инструменты MCP.

В идеальном состоянии клиент (тело) соединяет мозг и руки с ногами, помогая пользователю решать проблемы.

В эпоху интернета барьеры приложений исходят из двух вещей: интерфейса (UI) и интерфейса программирования приложений (API). Пользователи могут выполнять конкретные услуги только через определенный интерфейс. Но когда потребности могут быть выражены на естественном языке, Prompt становится новым интерфейсом, и барьеры API начинают ослабевать. «Границы» между приложениями начинают становиться нестабильными.

Это приводит к тому, что каждая роль в экосистеме испытывает крайнее отсутствие чувства безопасности:

* Производители LLM боятся стать «трубами»: если они будут только делать API, пользователям это будет незаметно. Сегодня пользователь использует Claude 4.5, завтра переключится на GPT 5.1 или GLM-4.6, и производители моделей могут быть заменены более дешевыми вычислительными мощностями в любой момент. Чтобы не стать «трубами», им необходимо выйти на рынок клиентских приложений (тела) и удерживать пользователей в своих приложениях.
* Клиенты боятся быть «перекрытыми»: это так называемая тревога «оболочки». Если основной мозг находится в руках других, он может быть отключен или подорожать в любой момент. Поэтому разработчики приложений начинают создавать свои модели, пытаясь овладеть мозгом.
* Инструментальные компании боятся "невидимости": например, если местная платформа рекомендаций по жизни станет инструментом MCP, где пользователи будут напрямую общаться с ИИ для получения информации, эта платформа полностью превратится в основного поставщика API, и ее первоначальная ценность интерфейса и доходы от рекламы будут прямо разрушены. Поэтому они не хотят этого, пытаясь впихнуть функции ИИ в свои приложения, чтобы удержать пользователей.

Результат такого "всеобъемлющего беспокойства" - это нынешний хаос: все занимаются полным стеком, все пытаются полностью контролировать мозг, тело и конечности.

Путь 1: Облачный Левиафан (Супервход)

Чтобы решить эту тревогу, крупные компании предлагают решение, которое очень соответствует их привычному мышлению: воспроизвести историю суперприложений интернета.

С точки зрения производителей моделей, сборка мозга и конечностей лучше всего не должна происходить на стороне клиента, так как в этом случае контроль будет в руках пользователя. Они надеются, что клиент вернется к модели "тонкого клиента" (Thin Client) — оставив только возможность получать голосовые или текстовые команды.

В этой архитектуре:

Мозг в облаке: принятие решений и рассуждения полностью контролируются производителем.
Руки и ноги в облаке: подключение к бэкендам крупных компаний через Function Calling или Plugin.
Память в облаке: данные пользователя, предпочтения, история записей полностью загружены.

Таким образом, можно идеально воспроизвести логику суперприложений, и они будут более страшными, чем суперприложения в интернете. Потому что в эпоху интернета суперприложения хотя и монополизируют трафик, но данные между сервисами все же частично изолированы. А в «AI суперприложениях» производители не только контролируют входные точки, но и через модели управляют всеми промежуточными логическими решениями.

Это идеальный "облачный Левиафан", обладающий высокой эффективностью, но пользователи в этой системе не имеют никакой конфиденциальности и свободы выбора, они просто объекты, кормящие алгоритмы.

Путь два: AI нативные приложения — интеграция на стороне пользователя

Но существует и другая возможность, эта тенденция уже явно проявляется в области программирования.

Посмотрите на нынешний AI редактор (IDE): основная часть на стороне пользователя, кодовая база (Codebase) локально, вся бизнес-логика и контекст также локально.

Мозг можно подключать: вы можете настроить использование разных моделей в IDE, даже если IDE не поддерживает конфигурацию, добавив уровень интерфейса-прокси, это также можно решить.
Руки и ноги стандартизированы: появление таких протоколов, как MCP, сделало такие инструменты, как базы данных, Git и терминалы, стандартными кубиками Лего.

В этой архитектуре приложение не является стеной, в которой крупные компании держат пользователей, а представляет собой "экзоскелет", который носит пользователь.

В этом режиме интеграция происходит на стороне клиента. Приложение организует локальные данные пользователя (Контекст) и по мере необходимости вызывает облачный или локальный "мозг" для анализа, а затем управляет стандартизированными "руками и ногами" для выполнения.

Ключевые данные и логика остаются на стороне пользователя. По крайней мере, ваши данные не будут сосредоточены в руках одного поставщика; по крайней мере, когда какая-то модель станет менее эффективной, вы сможете заменить её на более умную.

Конечно, этот путь не является простым, и главной проблемой является отсутствие инфраструктуры: если нет унифицированной аутентификации (Auth) от крупных компаний в облаке, то связать различные инструменты и сервисы на стороне клиента с идентификацией, платежами и построением устойчивой бизнес-модели является огромной задачей, и в настоящее время нет четкого пути.

Но я верю, что децентрализованный ID (DID) и платежные сети в области криптовалюты могут сыграть важную роль здесь, предоставляя основу для доверия и расчетов в этой децентрализованной AI-кооперации. Мы подробнее обсудим эту тему в следующей статье.

Будущее игры

Текущая эволюция технологий находится на распутье: с одной стороны, крупные компании пытаются «собрать» все свои возможности за своим API, создавая закрытую экосистему; с другой стороны, разработчики используют такие технологии, как MCP и Local LLM, чтобы попытаться создать «разъединённую» открытую экосистему.

Будущее зависит от игры между пользователями, производителями и разработчиками в настоящем. Выбор каждого человека на самом деле голосует за одно из этих двух будущих.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 1
  • Репост
  • Поделиться
комментарий
0/400
Heydar34vip
· 11-19 22:06
Держите крепко 💪
Ответить0
  • Закрепить