Украсть деньги при помощи искусственного интеллекта? Теперь это легко

19 сентября 2019, 20:36
Украсть деньги при помощи искусственного интеллекта? Теперь это легко
Deepfake-технологии из развлечения стали реальной угрозой для безопасности. Мошенники начали их использовать для краж — денег через банковские переводы.

Дипфейк технологии — это, конечно, очень весело. Можно заменить собой любого героя фильма, как это позволяет сделать китайское приложение. Можно посмеяться над тем, как Григорий Распутин распевает песни Beyonce. Но недаром эксперты сомневались в этичности и безопасности технологии.

Сначала всех беспокоило, как бы кто недобросовестный не начал использовать это как инструмент шантажа или порно-мести. Но оказалось, deepfake-технологии отлично подходят для совершения финансовых преступлений.

Рукописный росчерк как, например, в паспорте всегда было легко подделать, чтобы совершить мошенничество. Но до недавнего времени люди могли полагаться на то, что видят и слышат. Теперь и это в прошлом. Технологии поддельной голосовой связи расцвели пышным цветом, и кто-то всё же рискнул использовать их для обмана. И не прогадал.

В марте этого года преступники украли у управляющего директора британской энергетической компании 240 000 долларов. И им даже не пришлось стоить хитрых планов, взламывать банковские ячейки или что-то в этом роде. Они этому директору просто позвонили.

И нет, несчастный — вовсе не дурак, чтобы по первому требованию переводить кому-то непонятному внушительные суммы. Он был уверен, что по телефону с ним разговаривает глава материнской фирмы в Германии. Никаких сомнений в том, что это мог бы быть кто-то другой, у него не было: голос и манера речи звонившего британскому сотруднику были очень хорошо знакомы по предыдущим разговорам.

Управляющий директор думал, что переводит деньги венгерскому поставщику, а на самом деле, отправил их в Мексику невесть кому. Когда злоумышленники решили провернуть эту схему повторно ("чтоб поставщик быстрее работал"), у управляющего возникли сомнения, и он сам набрал в головной офис. Но мошенники продолжали звонить, так что менеджер на исходящих разговаривал с шефом, а на входящих — с "шефом". Но часть денег уже ушла.

Известно, что преступники использовали коммерчески доступную программу на базе искусственного интеллекта. Она способна генерировать не только голос, но и интонации и манеру разговора. Так, например, может сделать Google Duplex. Для того, чтобы имитировать речь человека, достаточно 20 минут оригинальной аудиозаписи его слов (чтобы её получить, достаточно включить диктофон, например, за соседним столиком в кафе во время обеденного перерыва).

И скорее всего, это уже даже не первое преступление, совершённое с помощью deepfake-технологий.