Преступники научились использовать ИИ для имитации голоса и введения жертвы в заблуждение

285

Злоумышленники применили программное обеспечение с использованием искусственного интеллекта для подделки голоса исполнительного директора материнской компании неназванной энергетической фирмы, чтобы инициировать крупный денежный перевод, сообщает The Wall Street Journal.

Инцидент произошёл в марте. Телефонный звонок был якобы сделан из Германии в компанию, базирующуюся в Великобритании. Директор последней совершил требуемый перевод в адрес венгерского поставщика и получил подтверждение, что отправленная сумма полностью компенсирована. Однако когда возмещенные деньги должны были появиться на счету, прозвучал еще один телефонный звонок – из Австрии. Голос «собеседника» вновь звучал как голос исполнительного директора головной фирмы – и снова потребовал срочно сделать новый перевод. Хотя британский директор узнал характерную интонацию и акцент босса, что-то показалось ему подозрительным и он отказал в транзакции. Позже выяснилось, что шеф действительно никому не звонил, а сделанный перевод на 243 тысячи долларов был перенаправлен в Мексику и другие локации.

Эксперт по мошенничествам, работающий в страховой компании, обслуживающей пострадавшую фирму, сообщил изданию, что страховщики до сих пор не сталкивались с преступлениями, в которых фигурировал бы искусственный интеллект. Он сказал, что дело раскрыто; обнаружено, каким именно коммерческим софтом пользовались преступники. По его словам, он протестировал это ПО и убедился, что его собственный голос, синтезированный программой, звучал очень похоже на оригинал.

По данным Pindrop, компании-разработчика ИБ-софта и протоколов для кол-центров, количество случаев «голосовых» обманов выросло на 350% между 2013 и 2017 годом. Прикидываясь кем-то другим по телефону, злоумышленники могут получить конфиденциальную информацию, которую они не могли бы добыть другими способами, и затем использовать ее в незаконных целях.