Глибокі підробки AI створюють загрози для систем KYC, безпека банків і криптоплатформ стикається з новими викликами

Новини Gate News: глибокофейковий AI дедалі частіше стає новою загрозою для KYC-систем банків і криптовалютних платформ. Нещодавні звіти показують, що кіберзлочинці з даркнету розробили та продають інструмент, який поєднує глибокі фейки й клонування живого голосу в реальному часі, здатний обходити традиційні перевірки особи. Цей інструмент не лише може генерувати надзвичайно переконливі синтетичні ідентичності, а й імітувати природні рухи обличчя та мовні реакції, через що KYC-перевірки стають важкими для відрізнення від реальності.

Поява AI-шахрайства в KYC руйнує традиційні моделі верифікації. Банки та криптоплатформи покладаються на перевірку документів, розпізнавання обличчя та живі тести, але цей інструмент може одночасно обходити три рівні захисту. Зловмисникам більше не потрібно викрадати реальні дані особи — натомість вони можуть швидко генерувати декілька віртуальних ідентичностей для масштабної реєстрації й шахрайських дій у короткий проміжок часу.

Фахівці з фінтеху попереджають, що наявні KYC-системи здебільшого не здатні повністю виявляти високорівневі глибокофейкові атаки. Деякі компанії вже почали впроваджувати інструменти виявлення на основі штучного інтелекту, які підвищують точність за рахунок аналізу мікровиразів і поведінкових аномалій, але й атакувальники безперервно нарощують технологічні можливості. Швидка еволюція шахрайського AI у сфері ідентифікації створює безперервну «гонку озброєнь» між обороною та атакою, збільшуючи безпековий тиск на цифрові фінансові платформи.

Експерти радять, щоб компанії будували багаторівневу систему захисту, поєднуючи AI-моніторинг і ручну перевірку, а також додаючи інструменти аналізу поведінки для відстеження підозрілих активностей після реєстрації користувачів. Така динамічна стратегія оборони допомагає безперервно виявляти потенційне шахрайство поза межами етапу верифікації. Оскільки глибокофейкові інструменти на основі штучного інтелекту постійно вдосконалюються, ризики безпеки для KYC-систем залишатимуться надовго.

Цей розвиток нагадує фінансовим установам, що один-єдиний метод перевірки вже не може гарантувати безпеку цифрових ідентичностей: необхідно нарощувати інвестиції в інтелектуальне виявлення та адаптивний захист, щоб протистояти хвилі шахрайства, спричиненого штучним інтелектом, і створити для цифрових фінансових платформ довірене середовище.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів