Miles de personas en todo el mundo están vendiendo sus identidades para entrenar IA, pero ¿cuál es el precio?

Autor: The Guardian

Traducido por: Deep潮 TechFlow

Deep潮 introducción: Este reportaje de investigación revela una industria gris en rápido crecimiento: miles de personas en todo el mundo ganan dinero vendiendo sus voces, rostros, registros de llamadas y videos diarios para entrenar IA.

No se trata de una discusión superficial sobre privacidad, sino de una investigación con personas reales, cantidades reales y consecuencias reales: un actor que vendió su rostro vio en Instagram que “su” imagen promocionaba un producto médico desconocido, y en los comentarios alguien comentaba sobre su “apariencia”.

Cuando la sed de datos de las empresas de IA se combina con la brecha económica global, se está creando un comercio desigual.

El texto completo es el siguiente:

Una mañana del año pasado, Jacobus Louw, que vive en Ciudad del Cabo, Sudáfrica, salió a pasear como de costumbre, alimentando gaviotas en el camino. Pero esta vez grabó algunos videos: sus pasos en la acera y su campo de visión. Este video le hizo ganar 14 dólares, aproximadamente diez veces el salario mínimo del país, y equivalía a los gastos de comida de medio semana para este joven de 27 años.

Esta fue una tarea de “navegación urbana” que completó en Kled AI. Kled AI es una aplicación que paga a los usuarios por subir fotos, videos y otros datos para entrenar modelos de IA. En solo unas semanas, Louw, subiendo fotos y videos de su vida cotidiana, ganó 50 dólares.

A miles de millas de distancia, en Rancí, India, Sahil Tigga, de 22 años, gana regularmente con Silencio, una app que crowdsourcea datos de audio para entrenar IA, accediendo a su micrófono para captar ruidos en restaurantes o cruces concurridos. También sube grabaciones de su propia voz. Sahil incluso viaja a lugares únicos, como vestíbulos de hoteles aún no registrados en el mapa de Silencio. Con esto, gana más de 100 dólares al mes, suficiente para cubrir todos sus gastos de comida.

En Chicago, Ramelio Hill, de 18 años, aprendiz de soldador, vendió sus registros de chat privados con amigos y familiares a Neon Mobile, una plataforma de entrenamiento de IA conversacional que paga 0.50 dólares por minuto, ganando varios cientos de dólares. Para Hill, la cuenta es simple: ya cree que las empresas tecnológicas tienen sus datos privados en exceso, así que mejor sacar provecho de ello.

Estos “trabajos temporales de entrenamiento de IA” —subir escenas, fotos, videos y audios personales— están en la vanguardia de una nueva fiebre mundial por los datos. Con Silicon Valley hambriento de datos humanos de alta calidad que superan lo que se puede obtener en internet abierto, ha surgido una floreciente industria de mercado de datos que cierra esa brecha. Desde Ciudad del Cabo hasta Chicago, miles de personas están cediendo sus características biométricas y datos privados en microautorizaciones para la próxima generación de IA.

Pero esta nueva economía de trabajos temporales tiene un precio. Por unos pocos dólares, estos entrenadores alimentan una industria que podría hacer que sus habilidades se vuelvan obsoletas, mientras se exponen a riesgos futuros como deepfakes, robo de identidad y explotación digital — y apenas están comenzando a entenderlo.

Manteniendo en marcha las máquinas de IA

Modelos de lenguaje como ChatGPT y Gemini necesitan enormes cantidades de datos para seguir mejorando, pero enfrentan escasez de datos. Las principales fuentes de entrenamiento —C4, RefinedWeb y Dolma— que representan una cuarta parte de los mejores conjuntos de datos en línea, están limitando a las empresas de IA generativa en su uso. Los investigadores estiman que para 2026, las empresas de IA agotarán los datos nuevos y de alta calidad disponibles. Aunque algunos laboratorios ya usan datos sintéticos generados por IA para retroalimentación, este proceso recursivo puede producir modelos llenos de errores y “basura”, lo que puede causar fallos.

Aquí entran en juego aplicaciones como Kled AI y Silencio. En estos mercados de datos, millones de personas venden sus datos de identidad para alimentar y entrenar IA. Además de Kled AI, Silencio y Neon Mobile, hay muchas otras opciones: Luel AI, respaldada por Y-Combinator, obtiene diálogos multilingües a aproximadamente 0.15 dólares por minuto; ElevenLabs permite clonar digitalmente tu voz y cobra 0.02 dólares por minuto por su uso.

El profesor de economía en King’s College London, Bouke Klein Teeselink, afirma que los trabajos temporales de entrenamiento de IA son una categoría laboral emergente que crecerá mucho.

Teeselink explica que las empresas de IA saben que pagar por datos ayuda a evitar disputas de derechos de autor que podrían surgir si dependen solo de rastrear contenido en línea. El investigador Veniamin Veselovsky añade que estas empresas también necesitan datos de alta calidad para modelar comportamientos nuevos y mejorados. “Por ahora, los datos humanos son el estándar de oro para muestrear fuera de la distribución del modelo”, dice Veselovsky.

Las personas que impulsan estas máquinas, especialmente en países en desarrollo, a menudo necesitan ese dinero y casi no tienen otra opción. Para muchos, trabajar en estos trabajos temporales de IA es una respuesta pragmática a la brecha económica. En países con altas tasas de desempleo y monedas en devaluación, ganar dólares suele ser más estable y rentable que trabajos locales. Algunos no pueden encontrar trabajos de nivel inicial y deben recurrir a entrenar IA para sobrevivir. Incluso en países más ricos, el aumento del costo de vida hace que vender su propia imagen sea una opción financiera lógica.

Louw, en Ciudad del Cabo, sabe bien el costo de privacidad. Aunque sus ingresos son inestables y no cubren todos sus gastos mensuales, está dispuesto a aceptar esas condiciones para ganar dinero. Ha sufrido durante años de trastornos neurológicos y no ha podido encontrar trabajo, pero con lo que ha ganado en mercados de datos de IA (incluyendo Kled AI), ahorró 500 dólares y se inscribió en un curso de terapia de masajes para convertirse en masajista.

“Como sudafricano, recibir dólares vale más de lo que la gente piensa”, dice Louw.

El profesor de geografía digital en la Universidad de Oxford, Mark Graham, autor de “Feed the Machines”, reconoce que para las personas en países en desarrollo, ese dinero puede tener un valor práctico a corto plazo, pero advierte que “estructuralmente, este trabajo es inestable, sin posibilidades de ascenso y en realidad un callejón sin salida”.

Graham añade que el mercado de datos de IA depende de “una competencia a la baja en los salarios” y de una “demanda temporal de datos humanos”. Cuando esa demanda cambie, “los trabajadores no tendrán protección, habilidades transferibles ni redes de seguridad”.

Graham afirma que los únicos ganadores son “las plataformas del hemisferio norte, que capturan todo el valor duradero”.

Autorización total

El trabajador de IA en Chicago, Hill, se siente conflictuado por vender llamadas privadas a Neon Mobile. Sus 11 horas de llamadas le valieron 200 dólares, pero dice que la app a menudo se cae y retrasa pagos. “Neon siempre me pareció sospechosa, pero seguí usándola para ganar algo extra y pagar cuentas”, dice Hill.

Ahora empieza a cuestionar si ese dinero realmente vale la pena. En septiembre del año pasado, Neon Mobile desapareció unas semanas después de su lanzamiento, tras que TechCrunch descubriera una vulnerabilidad que permitía acceder a los números, grabaciones y textos de los usuarios. Hill dice que Neon nunca le notificó esto y ahora teme que su voz pueda ser usada indebidamente en línea.

Jennifer King, investigadora en privacidad de datos en el Instituto de IA centrada en humanos en Stanford, expresa su preocupación de que el mercado de datos de IA no tiene claridad sobre cómo ni dónde se usarán los datos de los usuarios. Ella añade que, sin entender sus derechos ni poder negociar, “los consumidores enfrentan el riesgo de que sus datos sean reutilizados de maneras que no les gustan, no entienden o no esperaban, y casi sin remedio”.

Cuando los entrenadores de IA comparten datos en Neon Mobile y Kled AI, otorgan una autorización total (global, exclusiva, irrevocable, transferible y sin regalías), que permite a las plataformas vender, usar, exhibir públicamente y almacenar sus retratos, e incluso crear obras derivadas.

Avi Patel, fundador de Kled AI, afirma que su acuerdo de datos limita su uso a entrenamiento y investigación de IA. “Todo el modelo de negocio depende de la confianza del usuario. Si los contribuyentes piensan que sus datos pueden ser mal utilizados, la plataforma no puede funcionar”. Añade que la compañía revisa a los compradores antes de vender los conjuntos de datos, para evitar colaborar con entidades “de intención dudosa”, como la industria del porno, o “agencias gubernamentales” que puedan usar los datos en formas que violen esa confianza.

Neon Mobile no ha respondido a solicitudes de comentario.

El profesor de derecho en City, University of London, Enrico Bonadio, señala que estos términos permiten a las plataformas y sus clientes “hacer casi cualquier cosa con el material, de forma permanente, sin pagos adicionales, y sin que los contribuyentes puedan retirar su consentimiento o renegociar”.

Los riesgos más preocupantes incluyen que los datos de los entrenadores se usen para crear deepfakes y suplantaciones de identidad. Aunque el mercado de datos afirma que elimina información identificable (como nombres y ubicaciones) antes de vender, Bonadio advierte que las características biométricas son inherentemente difíciles de anonimizar de manera significativa.

Remordimientos del vendedor

Incluso si los entrenadores de IA logran negociar protecciones más específicas sobre el uso de sus datos, pueden arrepentirse después. En 2024, el actor de Nueva York Adam Coy vendió su rostro por 1000 dólares a Captions, una app de edición de videos de IA que ahora se llama Mirage. Su acuerdo especificaba que su identidad no sería usada con fines políticos, ni para promocionar alcohol, tabaco o contenido pornográfico, y que la autorización duraría un año.

Captions no ha respondido a solicitudes de comentario.

Poco después, sus amigos comenzaron a compartir videos en línea en los que usaban su rostro y voz, con millones de vistas. En uno de estos videos en Instagram, la copia de IA de Adam se presenta como un “ginecólogo” que promociona suplementos médicos no comprobados para mujeres embarazadas y postparto.

“Me da vergüenza explicar esto a los demás”, dice Coy.

“Los comentarios son extraños, porque evalúan mi apariencia, pero en realidad no soy yo”, añade Coy. “Cuando tomé la decisión de vender mi rostro, pensé que la mayoría de los modelos ya estaban rastreando datos y retratos en línea, así que mejor que me paguen a mí”.

Coy dice que no ha vuelto a hacer trabajos de entrenamiento de IA y que solo consideraría hacerlo si una empresa le ofrece una remuneración significativa.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado