Una pareja turca fue víctima de una estafa con IA sintética, siendo engañada por un video de inversión falsificado y perdiendo 150 millones de liras.



Este caso revela una nueva aplicación de la IA generativa en las estafas: la creación de tutoriales de inversión falsos o recomendaciones de celebridades mediante tecnología de deepfake. Las víctimas suelen bajar la guardia porque el video parece lo suficientemente realista, y finalmente terminan siendo "repollo" (término coloquial para víctimas de estafas).

Este tipo de esquemas se ve con frecuencia en el ámbito de las inversiones en criptomonedas: suplantación de atención al cliente de exchanges, promesas de ganancias falsas, endosos de celebridades sintéticas... Los delincuentes continúan perfeccionando sus métodos.

Algunos consejos para evitar estafas:
✓ Consejos de inversión de fuentes desconocidas, incluso si el video parece muy real, verifique
✓ Cualquier oportunidad que prometa altos rendimientos, verifique a través de canales oficiales
✓ Las plataformas legítimas no solicitarán claves privadas o fondos por canales no oficiales
✓ En caso de transferencias sospechosas, detener la operación inmediatamente es más inteligente que soñar con duplicar

En la era de la IA, ver no siempre equivale a creer. Invertir con racionalidad y verificar cuidadosamente son las mejores claves de seguridad.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 8
  • Republicar
  • Compartir
Comentar
0/400
0xLostKeyvip
· 12-27 09:06
La tecnología de deepfake se está volviendo realmente cada vez más absurda, se han ido 1.5 millones de liras así de fácil, ¡qué duro debe ser!
Ver originalesResponder0
SchroedingerGasvip
· 12-27 05:51
La técnica de deepfake es realmente impresionante, si pierdes 150.000 liras, simplemente se pierden. En estos tiempos, ni siquiera se puede confiar en los videos.
Ver originalesResponder0
FortuneTeller42vip
· 12-27 01:15
¿La deepfake es tan avanzada? Incluso pueden falsificar videos, ahora ni siquiera me atrevo a hacer clic en enlaces, es demasiado peligroso
Ver originalesResponder0
ConfusedWhalevip
· 12-26 20:00
150.000 liras se han ido así, la deepfake es realmente impresionante, ahora ni siquiera se puede confiar en los videos
Ver originalesResponder0
ClassicDumpstervip
· 12-26 20:00
150.000 liras se han ido así, la deepfake realmente se vuelve cada vez más absurda... Hoy en día ni siquiera se puede confiar en los videos
Ver originalesResponder0
tx_or_didn't_happenvip
· 12-26 19:53
Se han perdido 1.5 millones de liras, ahora el deepfake realmente se ha convertido en una herramienta delictiva... Ya lo había mencionado antes, los videos también pueden engañar.
Ver originalesResponder0
AllInDaddyvip
· 12-26 19:41
La deepfake se está volviendo realmente más fuerte, y así se han ido 1.5 millones de liras... Menos mal que nunca hago clic en enlaces desconocidos.
Ver originalesResponder0
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)