Las empresas de IA a nivel mundial han gastado miles de millones, y al final todos terminan compitiendo por trabajar para Apple.

La carrera armamentista global de la IA se está jugando con dinero real, y la competencia es a vida o muerte.

OpenAI, Google, Anthropic, cualquiera que se elija, en los últimos dos años han invertido en presupuesto de computación, salarios de talento y costos de entrenamiento de modelos, todo calculado en miles de millones de dólares.

En contraste, Apple, durante varios años, parece haber sido un “forastero” singular, tardando en presentar un modelo grande decente, incluso fue objeto de burlas por quedarse atrás en la ola de la IA. Pero esto no significa que Apple no haya estado haciendo nada ante el impacto de la ola de IA.

Justo ahora, según un informe de Bloomberg, iOS 27 introducirá un nuevo mecanismo llamado “Extensions”, que permitirá a los usuarios conectar IA de terceros como Google Gemini y Anthropic Claude a Siri a través del panel de configuración, de manera tan directa como ahora se hace al llamar a ChatGPT desde Siri.

En resumen, Siri se convertirá en la “puerta de entrada” para aplicaciones de IA.

En la versión beta del sistema hay un aviso interno: “Extensions allow agents from installed apps to work with Siri, the Siri app and other features on your devices. (Extensions permiten que los agentes de aplicaciones instaladas trabajen con Siri, la aplicación Siri y otras funciones en tus dispositivos.)”

Este mecanismo es esencialmente diferente del modelo de colaboración exclusivo anterior con ChatGPT. ChatGPT es una versión exclusiva negociada por Apple, caso por caso, lo que lleva tiempo y esfuerzo.

Extensions es un protocolo estándar, cualquier aplicación de IA que cumpla con los requisitos puede conectarse. En otras palabras, la inteligencia de Siri será externalizada por más IA de terceros.

Todo listo, solo falta esperar los ingresos

En realidad, Apple Intelligence desde su diseño inicial no es un sistema de modelo grande único, sino una arquitectura de “tres capas desacopladas”:

La primera capa es el lado del dispositivo. Un modelo ligero de aproximadamente 30 mil millones de parámetros corre localmente en el iPhone, manejando resúmenes de texto, conversaciones rápidas y operaciones sensibles a la privacidad. Este modelo ha sido entrenado con un enfoque de cuantificación de 2 bits, optimizado para chips de Apple, rápido, sin conexión y sin que los datos salgan del dispositivo.

La segunda capa es la nube privada. El gran modelo del servidor desarrollado internamente por Apple utiliza una arquitectura PT-MoE (expertos mezclados en paralelo), manejando razonamientos complejos y textos largos. Apple afirma que este entorno de computación en la nube utiliza cifrado de extremo a extremo, los datos solo se utilizan para procesar solicitudes y no se almacenan, y el entorno de ejecución incluso puede ser revisado por expertos de terceros.

Este sistema llamado “Private Cloud Compute” es lo que le da a Apple la confianza en cuestiones de privacidad.

La tercera capa es la capa de modelos de terceros. La IA de terceros se conecta a través de interfaces estandarizadas, convirtiéndose en “motores reemplazables” en todo el sistema. La clave de esta arquitectura es que: las tres capas están desacopladas entre sí.

Las llamadas a herramientas de la capa superior, la gestión de permisos y la interfaz de usuario no se preocupan en absoluto por qué modelo se está ejecutando en la capa inferior. Lo que el usuario percibe es “Siri resolvió este asunto”, respecto a quién está trabajando detrás, eso lo decide el sistema.

Para poder abrir a la IA de terceros, hay un requisito clave.

Hay varias maneras en las que la IA de terceros puede entrar en el ecosistema de Siri. Una es el marco App Intents, que permite a los desarrolladores exponer las funciones de sus aplicaciones a la IA del sistema, logrando llamadas entre aplicaciones; la otra es MCP (Model Context Protocol), Apple está trabajando para convertir este protocolo en soporte a nivel de sistema, integrándolo en el marco App Intents.

MCP no es una invención exclusiva de Apple, es un protocolo abierto que se está formando en la industria de la IA, Anthropic es uno de los primeros promotores. Que Apple opte por soportar MCP a nivel de sistema significa que cualquier servicio de IA que cumpla con este protocolo, en teoría, puede ser gestionado de manera unificada por Siri.

Para los desarrolladores, Apple también ha abierto el Foundation Models Framework.

Este es un SDK que permite una conexión nativa con los modelos centrales de Apple Intelligence usando Swift, se dice que se puede invocar con solo 3 líneas de código. Incorpora generación guiada, llamadas a herramientas restringidas y ajuste fino de adaptadores LoRA.

En resumen, aunque los desarrolladores pueden construir sobre la base de Apple, las reglas de la base las establece Apple.

El exclusivo romance de OpenAI ha terminado

Recordemos que la entrada de ChatGPT en Siri fue el gran atractivo durante el lanzamiento de Apple Intelligence en la WWDC de 2024.

Sin embargo, dentro de Apple, esta colaboración no fue unánime.

El ex responsable de IA de Apple, John Giannandrea, ya había mostrado reservas hacia OpenAI, creyendo que la competitividad a largo plazo de esta empresa era dudosa y prefiriendo colaborar con Google.

Finalmente, Apple llevó a cabo una “gran competición de IA”, donde ChatGPT ganó, siendo catalogado como “la mejor opción en ese momento”. Ahora, “en ese momento” tiene un significado profundo.

Ahora que se implementa el mecanismo de Extensions, la posición exclusiva de ChatGPT se desmorona naturalmente.

La situación ideal sería que los usuarios pudieran elegir qué IA responderá a sus preguntas, Gemini, Claude, Grok, Copilot, Perplexity, siempre que tengan la aplicación correspondiente instalada, Siri podrá invocarlas. ChatGPT sigue estando, pero ya no es la única opción.

Cabe mencionar que, el mismo día que se dio a conocer la noticia, las acciones de Google también cayeron, lo que parece contradictorio a primera vista, ¿no debería Google estar contento si Gemini está a punto de entrar en Siri? Pero al observar más de cerca, esta apertura de Siri Extensions y el empuje previo de Apple para “reconstruir la base de Siri con el modelo Gemini” son cosas diferentes.

La segunda se refiere a que Apple cambiaría la capacidad del modelo Gemini a nivel técnico, eso sería un gran contrato; la primera simplemente conecta la aplicación de usuario de Gemini a Siri, siendo de igual estatus que conectarse con Claude o ChatGPT.

Hay una preocupación más profunda. Según información divulgada anteriormente, Apple aún conserva el acceso a los pesos del modelo Gemini en su colaboración con Google, para construir su propia capacidad de modelo base. Es decir, mientras Apple invita a Gemini como “inquilino igual”, también está usando la acumulación técnica de Google para construir su propia base.

Cuando Apple iguala a todas las IA a través de Extensions, Gemini pierde la prioridad de conseguir “la base exclusiva de Siri”, y su poder de negociación se diluye considerablemente. Esa es la lógica detrás de la caída de precios.

Además, esta apertura es parte de un plan de reestructuración más amplio de Siri, que también incluye: una aplicación Siri independiente, una nueva interfaz de Siri, la integración de Siri con la búsqueda Spotlight, y nuevos accesos como “Preguntar a Siri” y “Escribir con Siri”.

Las funciones relacionadas se espera que se publiquen oficialmente en la WWDC de este año, aunque podrían cambiar o retrasarse.

Lento es rápido

Tras el informe de Bloomberg, los usuarios en la plataforma X comentaron: “Siri ahora se ha convertido en la primera IA del mundo, pero no ejecuta ningún modelo por sí misma, ni ha gastado un centavo en entrenamiento. Claude, ChatGPT, Gemini deben entrar en los 2.5 mil millones de usuarios de Siri, así que deben conectarse. Luego, Apple se queda con un 30% de los ingresos por suscripción a través de la App Store. La IA está así en iOS, y Apple casi no ha movido un dedo.”

La lógica de esta afirmación no tiene ningún elemento exagerado.

La estrategia de plataforma de Apple siempre ha sido así: controlar el entorno de ejecución y los canales de distribución, permitiendo que otros compitan sobre eso, mientras ellos cobran peajes. La App Store ya hizo una recolección así en el internet móvil, y ahora esta lógica se está repitiendo en la industria de la IA.

Actualmente, Apple ya está obteniendo ingresos a través de suscripciones de ChatGPT: cuando los usuarios pagan por ChatGPT Plus en un iPhone, el sistema de pago de la App Store participa, y Apple recibe una parte. Con la implementación del mecanismo de Extensions, cada servicio de IA de pago como Gemini, Claude, etc., que ingrese a Siri, representa un nuevo canal de ingresos.

Cuanto más intensa sea la batalla de la IA, más suscripciones de usuarios habrá, y Apple, en cambio, se beneficia como un pescador.

En comparación, al mirar los últimos dos años, el guion de la competencia de las empresas de IA ha sido altamente homogéneo: lanzar nuevos modelos, actualizar benchmarks, acaparar titulares en los medios, obtener una calificación más alta, conseguir una mayor valoración en rondas de financiamiento, y luego lanzar el siguiente nuevo modelo.

Pero esta “involución” en el rendimiento de computación y puntuaciones en la base, oculta el mayor dolor de la industria actual: la gran mayoría de las empresas de IA carecen de un acceso directo a los consumidores comunes.

No importa cuán sorprendentes sean las capacidades de los grandes modelos, al final solo pueden existir como aplicaciones o páginas web independientes. Las empresas deben invertir en altos costos de adquisición de clientes para competir por usuarios, y la barrera de cambio entre diferentes modelos es muy baja, no hay lealtad alguna.

Y la razón por la que Apple puede escapar de este círculo vicioso de gastar dinero, es porque mantiene un control estricto sobre la “distribución” y el “hardware”.

El total de dispositivos activos de Apple en todo el mundo ha superado los 2.5 mil millones, un volumen de distribución que ninguna otra empresa de IA puede replicar por sí sola. Y Apple, con solo una actualización de sistema, puede hacer que todos los usuarios de iPhone, en la próxima vez que invoquen a Siri, se enfrenten directamente a un nuevo ecosistema de IA.

Esta eficiencia de distribución no puede ser igualada por ninguna startup de IA. El canal determina la exposición, la exposición determina los hábitos, y los hábitos determinan la conversión a pago.

El desenlace de la competencia por suscripciones de IA probablemente no se decidirá en el nivel de modelos, sino que se completará en el nivel de distribución. El servicio de IA que primero capture la entrada de iPhone no obtendrá solo un beneficio de tráfico único, sino una vinculación continua de hábitos de usuario.

Desde la perspectiva de las empresas de IA, conectarse a Siri Extensions ya no es una cuestión de elección. Una vez que los competidores entren, no hacerlo sería renunciar activamente al canal de distribución más grande. La verdadera fortaleza de la IA sigue estando más cerca de los usuarios.

Este es un plano evidente de Apple, sin exigir a nadie que se una, pero todos no tienen razón para rechazarlo.

GROK-3,58%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado