Дипфейки втираются в доверие

19 февраля 2022, 15:16
Как выяснили исследователи из США и Великобритании, людям сложно отличить лицо, сгенерированное ИИ, от реального. А ещё ненастоящие лица вызывают у нас больше доверия, чем живые. Но почему? И как ИИ так хорошо научился нас обманывать? Разбираемся.

Технология создания дипфейков — совсем молодая. Её придумал студент Стэнфордского университета Иэн Гудфэллоу в 2014. А распространяться дипфейки стали после того, как в 2017 пользователь Reddit стал заменять лица порноактрис на лица знаменитостей

В создании дипфейка нет ничего сложного: правдоподобную картинку делают генеративно-состязательные нейросети (GAN). Например, изучают тысячи фото Джона Траволты и пытаются представить, как бы он мог двигаться и выглядеть в разных ситуациях.

При этом один алгоритм создаёт видео, фото или даже аудио, а его “коллега” пытается определить, настоящее оно или нет. Если он смог найти неточность, первый ИИ начинает работу сначала. Наиболее реалистичный, по оценке двух алгоритмов, результат и превращается в дипфейк.


Сейчас дипфейки очень сложно распознать. Учёные выяснили, что настоящих людей от компьютерной симуляции люди могут отличить лишь 49% случаев. А если участник эксперимента потренируется, результат увеличивается, но не так значительно: подделку удастся распознать в 59% случаев.

Как отмечают специалисты, ИИ натренировался так хорошо, что смог преодолеть т.н.  зловещую долину. Это эффект, который возникает, когда мы смотрим на человекообразных роботов и другие подобные предметы — видим отличия от живого существа и испытываем иррациональный страх и неприятие.

Технология создания дипфейков открывает новые горизонты в индустрии кино, компьютерных игр и развлечений. Например, Илона Маска можно заставить спеть песню “Трава у дома”, а Брюса Уиллиса — бесплатно “сниматься” в рекламе.


Сейчас всё чаще говорят о том, что использование дипфейков нужно регламентировать. Уже известны случаи мошенничества с использованием этой технологии. Например, в 2020 злоумышленники создали поддельный голос — "клонировали" речь директора крупной компании и благодаря этому украли $35 млн.

А в США технологию использовала рассерженная мать: создавала дипфейки про девушек-чирлидерш, которые обижали её дочь. Девушки начали получать с анонимных номеров видео, где они полностью раздетые, курят и пьют. Одну из них даже склоняли к самоубийству.

Благодаря дипфейкам мошенники смогут подделать всё что угодно. Facebook и Microsoft выделяют миллионные гранты программистам, которые смогут создать алгоритмы для обнаружения дипфейков. Большие деньги тратят на эти цели и власти разных стран. Но пока решения не найдено.