Una pareja turca fue víctima de una estafa con IA sintética, siendo engañada por un video de inversión falsificado y perdiendo 150 millones de liras.
Este caso revela una nueva aplicación de la IA generativa en las estafas: la creación de tutoriales de inversión falsos o recomendaciones de celebridades mediante tecnología de deepfake. Las víctimas suelen bajar la guardia porque el video parece lo suficientemente realista, y finalmente terminan siendo "repollo" (término coloquial para víctimas de estafas).
Este tipo de esquemas se ve con frecuencia en el ámbito de las inversiones en criptomonedas: suplantación de atención al cliente de exchanges, promesas de ganancias falsas, endosos de celebridades sintéticas... Los delincuentes continúan perfeccionando sus métodos.
Algunos consejos para evitar estafas: ✓ Consejos de inversión de fuentes desconocidas, incluso si el video parece muy real, verifique ✓ Cualquier oportunidad que prometa altos rendimientos, verifique a través de canales oficiales ✓ Las plataformas legítimas no solicitarán claves privadas o fondos por canales no oficiales ✓ En caso de transferencias sospechosas, detener la operación inmediatamente es más inteligente que soñar con duplicar
En la era de la IA, ver no siempre equivale a creer. Invertir con racionalidad y verificar cuidadosamente son las mejores claves de seguridad.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
16 me gusta
Recompensa
16
8
Republicar
Compartir
Comentar
0/400
0xLostKey
· 12-27 09:06
La tecnología de deepfake se está volviendo realmente cada vez más absurda, se han ido 1.5 millones de liras así de fácil, ¡qué duro debe ser!
Ver originalesResponder0
SchroedingerGas
· 12-27 05:51
La técnica de deepfake es realmente impresionante, si pierdes 150.000 liras, simplemente se pierden. En estos tiempos, ni siquiera se puede confiar en los videos.
Ver originalesResponder0
FortuneTeller42
· 12-27 01:15
¿La deepfake es tan avanzada? Incluso pueden falsificar videos, ahora ni siquiera me atrevo a hacer clic en enlaces, es demasiado peligroso
Ver originalesResponder0
ConfusedWhale
· 12-26 20:00
150.000 liras se han ido así, la deepfake es realmente impresionante, ahora ni siquiera se puede confiar en los videos
Ver originalesResponder0
ClassicDumpster
· 12-26 20:00
150.000 liras se han ido así, la deepfake realmente se vuelve cada vez más absurda... Hoy en día ni siquiera se puede confiar en los videos
Ver originalesResponder0
tx_or_didn't_happen
· 12-26 19:53
Se han perdido 1.5 millones de liras, ahora el deepfake realmente se ha convertido en una herramienta delictiva... Ya lo había mencionado antes, los videos también pueden engañar.
Ver originalesResponder0
AllInDaddy
· 12-26 19:41
La deepfake se está volviendo realmente más fuerte, y así se han ido 1.5 millones de liras... Menos mal que nunca hago clic en enlaces desconocidos.
Una pareja turca fue víctima de una estafa con IA sintética, siendo engañada por un video de inversión falsificado y perdiendo 150 millones de liras.
Este caso revela una nueva aplicación de la IA generativa en las estafas: la creación de tutoriales de inversión falsos o recomendaciones de celebridades mediante tecnología de deepfake. Las víctimas suelen bajar la guardia porque el video parece lo suficientemente realista, y finalmente terminan siendo "repollo" (término coloquial para víctimas de estafas).
Este tipo de esquemas se ve con frecuencia en el ámbito de las inversiones en criptomonedas: suplantación de atención al cliente de exchanges, promesas de ganancias falsas, endosos de celebridades sintéticas... Los delincuentes continúan perfeccionando sus métodos.
Algunos consejos para evitar estafas:
✓ Consejos de inversión de fuentes desconocidas, incluso si el video parece muy real, verifique
✓ Cualquier oportunidad que prometa altos rendimientos, verifique a través de canales oficiales
✓ Las plataformas legítimas no solicitarán claves privadas o fondos por canales no oficiales
✓ En caso de transferencias sospechosas, detener la operación inmediatamente es más inteligente que soñar con duplicar
En la era de la IA, ver no siempre equivale a creer. Invertir con racionalidad y verificar cuidadosamente son las mejores claves de seguridad.