Los empleados de Goldman Sachs en Hong Kong dejan de usar Claude, Anthropic admite: nunca admitió soporte para la región de HK, el control geográfico de la IA se intensifica

El exclusivo informe del Financial Times del Reino Unido, confirmado por Bloomberg el 29 de abril:
Los empleados de la sucursal de Goldman Sachs en Hong Kong perdieron hace semanas el acceso a Claude, debido a que tras consultar con Anthropic, se interpretó estrictamente el contrato, confirmando que los empleados en Hong Kong no pueden usar ningún producto de Anthropic;
Un portavoz de Anthropic también declaró por primera vez que el modelo Claude “nunca ha sido oficialmente soportado en Hong Kong”.
Esto no es solo un ajuste en la política de TI de un banco—revela los límites de servicio de los proveedores de IA bajo la tensión geopolítica entre China y EE. UU.,
y que las cadenas de herramientas de las instituciones financieras extranjeras (incluyendo sus departamentos de criptomonedas) en Hong Kong están cerrándose silenciosamente.
(Resumen previo: La fuerza de Mythos de Anthropic generó una reunión de emergencia: Bessent, Powell convocaron a Citibank, Goldman Sachs, Bank of America, JPMorgan y Morgan Stanley, centrados en riesgos financieros)
(Información adicional: ¡Anthropic exige verificación de identidad KYC! Algunas funciones de Claude requerirán subir documentos de identidad, ampliando la presión de cumplimiento)

Los empleados de Goldman Sachs en Hong Kong, sin aviso oficial, han perdido silenciosamente una herramienta—el modelo Claude de Anthropic.

El 28 de abril, el Financial Times informó en exclusiva, y al día siguiente Bloomberg confirmó: en la plataforma interna de IA de Goldman Sachs, Claude ha sido completamente bloqueado para los empleados en Hong Kong, cubriendo todos los escenarios de uso, como ayuda en programación y análisis de archivos.
Otros modelos principales—Google Gemini, OpenAI ChatGPT—siguen operando normalmente en la plataforma, solo Claude está ausente.

No fue un accidente, sino el resultado de una interpretación contractual

El origen del evento no fue una falla técnica, sino una decisión de cumplimiento corporativo.
Tras consultar con Anthropic, Goldman adoptó una postura estricta en la interpretación del contrato, concluyendo que: los empleados en Hong Kong no están dentro del alcance del servicio de Anthropic, por lo tanto, no pueden usar ningún producto de Anthropic.

La respuesta oficial de Anthropic fue breve y clara—un portavoz dijo al FT que el modelo Claude “nunca ha sido oficialmente soportado en Hong Kong”, y se negó a hacer más comentarios.

Detrás de esta declaración hay fundamentos concretos: la lista oficial de regiones soportadas por Anthropic nunca incluyó Hong Kong, y Claude ha sido bloqueado en IP en Hong Kong durante mucho tiempo.
Esta restricción no proviene de regulaciones locales, sino que es una política activa de Anthropic.

¿Por qué Hong Kong no está en la lista de soporte? Tres niveles de lógica

El primer nivel es el entorno legal.
Tras la implementación de la Ley de Seguridad Nacional en 2020, el marco legal de Hong Kong genera incertidumbre sobre la soberanía de datos y obligaciones de cumplimiento para las empresas tecnológicas estadounidenses, por lo que Anthropic optó por una postura conservadora.

El segundo nivel es la relación con el gobierno de EE. UU.
Anthropic tiene numerosos contratos con el gobierno federal de EE. UU., incluyendo defensa y inteligencia, y sus políticas de control geográfico deben alinearse con el marco de control de exportaciones de EE. UU.
Además, Anthropic es un defensor público de las restricciones de exportación de chips avanzados de EE. UU.

El tercer nivel son las preocupaciones de seguridad del modelo.
A principios de 2026, Anthropic acusó públicamente a laboratorios de IA chinos, incluyendo DeepSeek, de realizar “destilación de modelos” a través de más de 16 millones de interacciones, extrayendo sistemáticamente capacidades de Claude.
Este incidente reforzó aún más la postura de Anthropic de restringir el acceso en regiones relacionadas con China.

Es importante notar que en 2026, Anthropic actualizó sus términos de servicio, añadiendo restricciones de propiedad a nivel global:
Cualquier empresa con participación directa o indirecta superior al 50% de una entidad china, sin importar en qué país opere o esté registrada, está prohibida de usar Claude.

Goldman Sachs no será el primero, ni el último

La particularidad de este evento radica en que no fue Anthropic quien retiró activamente el servicio a Goldman Sachs, sino que fue Goldman quien consultó y tomó la iniciativa de restringir.
Esto indica que las instituciones financieras extranjeras ya están comenzando a incorporar la conformidad geopolítica de las herramientas de IA en sus procesos de gestión de riesgos.

La sucursal de Hong Kong de Goldman Sachs ya es socio de liquidación, contraparte OTC y consultor de cumplimiento para varias instituciones criptográficas principales.
Si este tipo de control de herramientas se vuelve una práctica habitual en los departamentos de banca extranjera en Hong Kong,
los afectados no serán solo los ingenieros de tecnología, sino también las áreas de comercio de activos digitales, diseño de productos estructurados, diligencia debida de clientes y otras líneas de negocio que dependen en gran medida de la asistencia de IA.

Aún no está claro si otros bancos extranjeros adoptarán medidas similares.
Pero, según informes de SCMP, con Anthropic reforzando los requisitos de verificación de identidad (incluyendo KYC), la escala de usuarios en Hong Kong que acceden a Claude mediante VPN y canales clandestinos está en aumento—lo que indica que la demanda existe, pero los caminos de cumplimiento están bloqueados.

Las herramientas de IA también tienen límites geopolíticos

Este no es el primer caso en que una herramienta de IA se restringe por motivos geopolíticos, pero su significado simbólico es especialmente claro:
cuando Claude de Anthropic se convierte en parte del flujo de trabajo central de una institución financiera, sus límites de servicio dejan de ser solo decisiones de producto, para convertirse en una extensión de la realidad geopolítica.

En medio de la continua ambigüedad en la regulación de IA entre China y EE. UU.,
“qué modelo de IA puedes usar” se está convirtiendo en una cuestión de cumplimiento, de geografía y también de política.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado