Турецька пара стала жертвою шахрайства з використанням AI-синтезу, їх обдурили підробленим відео з інвестиціями, внаслідок чого вони втратили 1,5 мільйона ліри.
Ця справа відкриває новий напрямок застосування генеративного AI у шахрайстві — створення фальшивих інвестиційних навчальних матеріалів або рекомендацій знаменитостей за допомогою технології глибокого підроблення. Постраждалі часто через те, що відео здається досить реалістичним, втрачають пильність і в підсумку стають "цибулинами".
Подібні схеми не рідкість у сфері криптоінвестицій: підроблені служби підтримки бірж, фальшиві обіцянки прибутку, синтезовані рекомендації знаменитостей… Злочинці постійно удосконалюють свої методи.
Кілька порад для захисту: ✓ Інвестиційні поради з невідомих джерел, навіть якщо відео здається дуже реалістичним — перевіряйте ✓ Будь-які можливості з обіцянкою високого доходу — перевіряйте через офіційні канали ✓ Офіційні платформи не запитують приватні ключі або кошти через неофіційні канали ✓ При підозрілих переказах — негайно припиняйте і не мрійте про подвоєння, це розумніше
У епоху AI бачити не завжди означає повірити. Раціональні інвестиції, обережна перевірка — це найкращий ключ до безпеки.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
16 лайків
Нагородити
16
8
Репост
Поділіться
Прокоментувати
0/400
0xLostKey
· 12-27 09:06
Глибока підробка стає все більш безглуздою, 1,5 мільйона лірами просто зникло, наскільки ж це жорстоко
Переглянути оригіналвідповісти на0
SchroedingerGas
· 12-27 05:51
Глибока підробка — ця тактика справді неймовірна, 150 тисяч лір зникли — і все, цього року навіть відео вже не можна довіряти
Переглянути оригіналвідповісти на0
FortuneTeller42
· 12-27 01:15
Глибока підробка настільки потужна? Навіть відео можна підробити, я зараз навіть не наважуюся натискати на посилання, це надто небезпечно
Переглянути оригіналвідповісти на0
ConfusedWhale
· 12-26 20:00
1500000 лір просто так зникли, глибока підробка справді вражає, тепер навіть відео вже не можна довіряти
Переглянути оригіналвідповісти на0
ClassicDumpster
· 12-26 20:00
1500000 лір просто так зникли, глибока підробка справді стає все більш безглуздою... Цього року навіть відео вже не можна довіряти
Переглянути оригіналвідповісти на0
tx_or_didn't_happen
· 12-26 19:53
Понад 1,5 мільйона лір втрачено, тепер deepfake справді став інструментом злочину... Я давно казав, що відео також може обманути.
Переглянути оригіналвідповісти на0
AllInDaddy
· 12-26 19:41
Глибока підробка дійсно стає все більш потужною, 1,5 мільйона ліри просто зникли... На щастя, я ніколи не натискаю на незнайомі посилання
Турецька пара стала жертвою шахрайства з використанням AI-синтезу, їх обдурили підробленим відео з інвестиціями, внаслідок чого вони втратили 1,5 мільйона ліри.
Ця справа відкриває новий напрямок застосування генеративного AI у шахрайстві — створення фальшивих інвестиційних навчальних матеріалів або рекомендацій знаменитостей за допомогою технології глибокого підроблення. Постраждалі часто через те, що відео здається досить реалістичним, втрачають пильність і в підсумку стають "цибулинами".
Подібні схеми не рідкість у сфері криптоінвестицій: підроблені служби підтримки бірж, фальшиві обіцянки прибутку, синтезовані рекомендації знаменитостей… Злочинці постійно удосконалюють свої методи.
Кілька порад для захисту:
✓ Інвестиційні поради з невідомих джерел, навіть якщо відео здається дуже реалістичним — перевіряйте
✓ Будь-які можливості з обіцянкою високого доходу — перевіряйте через офіційні канали
✓ Офіційні платформи не запитують приватні ключі або кошти через неофіційні канали
✓ При підозрілих переказах — негайно припиняйте і не мрійте про подвоєння, це розумніше
У епоху AI бачити не завжди означає повірити. Раціональні інвестиції, обережна перевірка — це найкращий ключ до безпеки.