El 13 de abril, investigadores de la Universidad de California descubrieron que algunos enrutadores de modelos de lenguaje grande (LLM) de IA de terceros podrían tener vulnerabilidades de seguridad, lo que podría llevar al robo de activos criptográficos.



Los investigadores publicaron el jueves un artículo que mide los ataques de intermediarios maliciosos en la cadena de suministro de LLM, revelando cuatro vectores de ataque, incluyendo inyección de código malicioso y extracción de credenciales.

El coautor del artículo, Chaofan Shou, expresó en X: “Hay 26 enrutadores de LLM que inyectan en secreto llamadas a herramientas maliciosas y roban credenciales.”

Actualmente, cada vez más agentes de IA transmiten solicitudes a través de intermediarios o enrutadores de API de terceros, que agregan acceso a proveedores de servicios como OpenAI, Anthropic y Google. Sin embargo, estos enrutadores terminan las conexiones TLS (Seguridad de la capa de transporte) de Internet, lo que permite acceder a todo el contenido de los mensajes en texto claro.

Esto significa que los desarrolladores que utilizan proxies de codificación de IA (como Claude Code) para desarrollar contratos inteligentes o billeteras podrían, sin saberlo, transmitir claves privadas, frases mnemónicas y otros datos sensibles a infraestructura de enrutadores que aún no ha sido sometida a auditorías de seguridad o protección.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado