Видели, как Том Круз в «Тиктоке» показывает фокусы и рассказывает про встречу с Горбачевым? Поверили? На самом деле это убедительный фейк, созданный с помощью нейросети.
Возможности технологий растут как на дрожжах и в плохих руках могут легко стать орудием мошенничества. По данным наших коллег из Trend Micro, преступники все чаще атакуют организации с помощью вот таких правдоподобных видео — дипфейков.
Делаются они следующим образом: алгоритм собирает и изучает множество материалов, на которых присутствует человек, — фото, записи интервью и публичных выступлений — а затем создает с ним новое видео или накладывает его лицо на кадры с другим человеком. И выглядит такое «кино» очень правдоподобно.
Создавая дипфейки, хакеры-нейролюбители используют изображения директоров компаний, медийных лиц, обычных соискателей — в общем, всех тех, чья личность может обмануть жертв: заставить их перевести корпоративные деньги на счет преступников или поделиться конфиденциальными данными.
Например, совсем недавно, в августе этого года, преступники сделали дипфейк Патрика Хиллманна — директора по коммуникациям криптобиржи Binance — и подключились от его лица (а точнее, с его лицом) к нескольким видеозвонкам с представителями криптовалютных проектов. Обман раскрыли, когда стартаперы связались с самим Хиллманном, чтобы поблагодарить его за уделенное внимание, — оказалось, тот ни сном ни духом не знал ни о каких звонках.
И это еще не все — дипфейки бывают не только графические. В 2019 году, например, мошенники сорвали куш: с помощью имитации голоса руководителя британской компании выманили у ее гендиректора 220 000 евро. Подмена была настолько правдоподобной, что обманутый директор не стал перепроверять информацию (даже несмотря на то, что средства переводились на сторонний счет).
Источник