Un juez federal detiene temporalmente al Pentágono de incluir a Anthropic en la lista negra, considerando que es una represalia inconstitucional, y el plan de IPO de 380 mil millones de dólares de la gigante de AI continúa.
La industria de AI en Estados Unidos ha logrado recientemente una victoria judicial emblemática. La jueza federal de California, Rita Lin, emitió el jueves pasado (3/26) una orden de restricción preliminar que impide al gobierno de Trump incluir a la gigante de AI Anthropic en la lista negra de riesgos de la cadena de suministro. Esta decisión desafía directamente la orden ejecutiva del Pentágono y del secretario de Defensa, Pete Hegseth, y la jueza, en su fallo, utilizó un lenguaje severo, señalando que el gobierno etiquetar a una empresa estadounidense como “potencial rival” y “destructora” es altamente irónico.
Rita Lin enfatizó que la estructura legal actual no apoya esta lógica administrativa “orwelliana”. El sistema administrativo, simplemente porque una empresa expresa una posición diferente a la del gobierno, la considera una amenaza a la seguridad nacional, lo cual claramente excede los límites de la autoridad. El tribunal ordenó al gobierno federal que detenga inmediatamente la implementación de las restricciones pertinentes y que presente un informe de cumplimiento antes del 6 de abril, explicando cómo se llevará a cabo la revocación de la orden de restricción.
El núcleo de esta batalla legal involucra si el gobierno ha utilizado el nombre de la seguridad nacional para retaliar contra la libertad de expresión. Según la información revelada por el tribunal, el Departamento de Defensa (también conocido como el departamento de guerra) tomó medidas contra Anthropic en gran medida basándose en las declaraciones públicas de la empresa en los medios, sin realizar una rigurosa evaluación de seguridad técnica. La jueza señaló que castigar a Anthropic genera preocupación pública sobre la postura del gobierno en cuanto a los contratos, lo cual constituye un acto de represalia violando la Primera Enmienda de la Constitución. En la audiencia de martes en San Francisco, Rita Lin cuestionó si el umbral del gobierno para definir a una empresa como “amenaza” es demasiado bajo.
Ella argumentó que si el Pentágono tiene dudas sobre el control tecnológico, podría simplemente dejar de usar el modelo Claude, y adoptar una etiqueta de “riesgo de cadena de suministro” que es despectiva y destructiva no es apropiado. Esta decisión restableció temporalmente la posición de Anthropic como colaborador federal, estableciendo un paraguas legal para futuras empresas de AI frente a la presión del gobierno.
El desencadenante de este conflicto se remonta a un contrato de 200 millones de dólares firmado entre Anthropic y el Pentágono en julio de 2025. En ese momento, ambas partes acordaron que Claude se convertiría en el primer modelo de AI de vanguardia autorizado para operar en una red secreta.
Sin embargo, la relación de colaboración se rompió en febrero de 2026. El Departamento de Defensa intentó renegociar los términos del contrato, exigiendo a Anthropic que eliminara todas las restricciones y permitiera al ejército usar Claude para todos los usos legales. Anthropic, que siempre ha defendido la seguridad de la AI, se mantuvo firme, negándose a aplicar su tecnología a sistemas de armas autónomas letales y a actividades de vigilancia masiva de ciudadanos estadounidenses. La alta dirección de la empresa considera que los modelos de AI actuales no poseen la seguridad y precisión suficientes en estas industrias sensibles, y arriesgarse a involucrarse en el campo de batalla o la vigilancia podría tener consecuencias catastróficas.
Posteriormente, la situación se intensificó rápidamente, y la reacción del sistema administrativo mostró una fuerte carga emocional personal. El 24 de febrero, el secretario de Defensa Hegseth emitió un ultimátum a Anthropic en una reunión, amenazando con imponer sanciones de inmediato si no se eliminaban las restricciones. Tras la negativa de Anthropic a comprometerse, el presidente Trump públicamente criticó a la empresa en Truth Social el 27 de febrero, llamándola “empresa radical de izquierda y despierta”, y acusándola de intentar intimidar al Departamento de Defensa, ordenando de inmediato a todas las agencias federales que detuvieran el uso de los productos de Anthropic.
A continuación, Hegseth describió la postura de Anthropic como “una obra maestra de arrogancia y traición”, y emitió formalmente la etiqueta de riesgo de cadena de suministro. Este extremo recurso, que normalmente se reserva para agencias de inteligencia extranjeras o grupos terroristas, se aplicó por primera vez a una empresa tecnológica estadounidense. Los expertos consideran que este uso de la ley como un arma refleja la impaciencia del sistema administrativo al enfrentar desafíos éticos tecnológicos.
A pesar de estar atrapada en una tormenta política y legal, Anthropic sigue mostrando un desempeño sólido en el mercado de capitales, demostrando una gran resiliencia. Según datos de 2025, Anthropic tiene una participación del 32 % en el mercado de AI empresarial, superando el 25 % de OpenAI y liderando la industria. En una ronda de financiamiento de 30 mil millones de dólares completada en febrero de este año, la valoración de esta estrella de AI ha ascendido a 380 mil millones de dólares, con el fondo soberano MGX liderando la ronda.
Al mismo tiempo, gigantes tecnológicos como Alphabet, Google, Amazon, Microsoft y Nvidia han establecido sólidas asociaciones con Anthropic, acumulando inversiones y transacciones de infraestructura que suman miles de millones. El apoyo de estos gigantes de Silicon Valley proporciona a Anthropic la base económica para resistir la presión política.
La última decisión del tribunal ha allanado el camino para Anthropic hacia el mercado público. Fuentes han revelado que Anthropic está acelerando sus planes de IPO (oferta pública inicial), con la posibilidad de cotizar en octubre de 2026, y se espera recaudar más de 60 mil millones de dólares. Actualmente, Goldman Sachs, JPMorgan y Morgan Stanley se han incluido como posibles asesores de suscripción.
Los expertos legales señalan que si la orden de lista negra del gobierno sigue en vigor, reduciría drásticamente la participación de mercado de Anthropic, dañando la confianza de los inversores. Ahora, con el fallo del juez considerando la orden inconstitucional, se protege el interés comercial de la empresa. Esto también envía un mensaje al mercado: la insistencia de las empresas en la ética de la seguridad de la AI debe ser protegida por la ley y no ser utilizada como excusa para la represión gubernamental.
Fuera de la batalla legal, los pasos de expansión de infraestructura de Anthropic no se han detenido. Google planea apoyar un proyecto de centro de datos de 5 mil millones en Texas, arrendándolo completamente a Anthropic. Este parque de 2,800 acres será operado por Nexus Data Centers y se espera que brinde alrededor de 500 megavatios (MW) de capacidad eléctrica para finales de 2026, suficiente para satisfacer las necesidades eléctricas de 500,000 hogares, y con potencial de expansión a 7.7 gigavatios (GW) en el futuro. La ubicación privilegiada del proyecto, cerca de importantes gasoductos, permite utilizar turbinas de gas in situ para el autoabastecimiento energético, asegurando una alta fiabilidad en la potencia de AI. Este ambicioso plan de infraestructura demuestra la firme intención de la industria tecnológica de invertir en la infraestructura a largo plazo de la AI.
Además, según informes de medios extranjeros, dentro de las Fuerzas Armadas de EE. UU. se ha desarrollado una dependencia del modelo Claude. A pesar de la estricta orden de prohibición emitida por la Casa Blanca, el Comando Central de EE. UU. (CENTCOM) ha seguido utilizando el modelo de AI de Anthropic para apoyo operativo en recientes ataques aéreos contra Irán. Esto revela la desconexión entre la política gubernamental y las necesidades en el frente.
El departamento administrativo, por su postura política, lo clasifica como un riesgo, mientras que las unidades de combate, debido a su ventaja técnica, optan por depender de él. La construcción del centro de datos y su aplicación en la práctica demuestran la importancia de Anthropic. A medida que el tribunal restaura su estatus de proveedor federal, este gigante de AI continuará desarrollándose en el equilibrio entre la ética tecnológica y los intereses nacionales, enfrentando posibles apelaciones gubernamentales en el futuro.