Как отличить дипфейк от живого человека

Нейросети научились создавать копию любой личности — филигранно подделывать голос и внешность человека. Технология с недавних пор стала доступна всем, включая мошенников. Как не стать жертвой дипфейка?

Что такое дипфейк и как его применяют?

Слово deepfake (дипфейк) составлено из двух терминов: «глубинное обучение» (англ. deep learning) и «подделка» (англ. fake). Нейросеть генерирует чье-то изображение и накладывает его на исходное. С помощью этой технологии можно подделать не только видео, но и любое изображение на экране: например, по видеосвязи общаетесь вы, а ваш собеседник видит (и слышит) кого-то другого. И хорошо, если это будет безобидный розыгрыш.

Для создания дипфейка достаточно нескольких качественных фотографий и записи голоса. Еще лучше, если есть видео: тогда искусственный интеллект можно научить воспроизводить мимику и движения.

Дипфейк может быть даже полезным. Самая очевидная сфера применения — кино.

Мы сейчас вполне можем снять фильм с Чарли Чаплином или с Одри Хепбёрн. Для этого нам не нужен двойник-актер. Нам нужен кто-то, кто будет носителем, кто будет осуществлять движение и «подаваться» на вход искусственному интеллекту, формирующему это изображение. Этим кем-то можете быть вы или я, а на экране окажется Одри Хепбёрн или Том Круз.

Василий Буров
советник МИЭМ НИУ ВШЭ, председатель совета директоров компании WikiVote, соучредитель АНО «Информационная культура»

Даже больше, чем в кино, впечатляет демонстрация возможностей технологии в соцсетях. В 2021 году в TikTok появился клон Тома Круза. Он играет в гольф, поет под гитару, отращивает усы и отпускает шутки про Горбачева.

Подделку не отличил даже канадский музыкант Джастин Бибер, который записал двухчасовой видеоответ на один из роликов дипфейка и пытался научить кинозвезду правильно играть на гитаре. Все это он выкладывал в сториз в своем инстаграме и тегал настоящий аккаунт Тома Круза. Когда фанаты наконец сообщили об ошибке, Бибер написал: «Это не настоящий Том Круз? Лол, ну ладно, это по‑прежнему забавно».

Пародийный аккаунт @deeptomcruize, демонстрирующий силу новых технологий, создал художник по визуальным эффектам Крис Уме в соавторстве с актером и имитатором Майлзом Фишером. Клон Тома Круза моложе оригинала и намного популярнее по числу подписчиков.

Из видео ниже следует, что дипфейк, в отличие от вампира, отражается в зеркале, но есть нюансы:

Еще одна возможность дипфейка (безопасная, хотя и жутковатая) — «оживление» мертвецов. Теоретически эта технология способна помочь пережить утрату близкого человека в общении с виртуальной копией. А те, кто мечтает о цифровом бессмертии, могут заранее позаботиться о вечной жизни своего «аватара».

Мы сами помогаем создать свой дипфейк

Но хорошее дело фейком не назовут. Технология уже успешно используется в мошеннических схемах.

В марте 2019 года генеральный директор британской энергетической компании перечислил €220 000 после телефонного разговора, в котором знакомый голос высокопоставленного партнера из Германии потребовал перевести деньги венгерскому поставщику.

В начале 2020 года управляющий банком в Гонконге также по звонку перевел $35 млн на счет в США тому, кого принял по голосу за директора компании, с которым разговаривал накануне. Расследование показало, что мошенники использовали технологию «глубокого голоса» для имитации речи директора.

В России объектами клонирования становились бизнесмены Дмитрий Мацкевич и Олег Тиньков. Видеоролики с их дипфейками использовались для рекламы несуществующих супердоходов и содержали ссылки на мошеннические сайты.

Кажется, что все это не угрожает лично вам, но что, если по видеосвязи позвонит близкий родственник (сын, дочь, брат, мать) и будет слезно просить о срочном переводе, сообщая о неминуемой опасности? Процент поверивших в такой ситуации может оказаться очень велик.

Сегодня технология подделки человека стала максимально доступной и дешевой. Также на руку мошенникам играет тот факт, что мы все больше общаемся на расстоянии — с помощью мессенджеров, звонков, соцсетей. Все, что вы выложите в Сеть, может быть использовано для создания дипфейка. И выходит, мы сами помогаем мошенникам, когда размещаем фотографии, рассказываем, с кем общаемся и где бываем. Чем больше хороших видео выложили, тем более похожей выйдет подделка.

«Многие думают: "А что плохого, если люди узнают, где я отдыхаю? А что плохого, если я буду везде делать селфи? Это же, наоборот, хорошо. Смотрите, какая я красивая. Или: смотрите, какой я успешный". Но это означает, что кто-то может этим воспользоваться. Кто угодно может скормить ваши фотографии нейросети и создать копию. Люди должны задуматься о том, каким выглядит новый баланс приватности и публичности», — говорит Василий Буров.

По словам эксперта, сбор разнообразной биометрии может сильно усугубить ситуацию: «Если у нейросети есть хорошие снимки нашей сетчатки глаза, значит, она сумеет изобразить такую же. Если у нее много записей нашего голоса, тогда она сумеет изобразить такой же. Если у нее много наших изображений, тогда она сможет нас имитировать. А этого всего становится много, и оно бесконтрольно от нас уходит».

Возможно ли противостоять этой технологии?

Технология создания дипфейков уже не исчезнет, ее нельзя запретить или технически ограничить, считает эксперт. Значит, преступления будут неизбежно совершаться.

«Нас можно начать этим шантажировать, — объясняет Василий Буров. — Особенно в странах со специфическим уровнем толерантности. Я говорю не только про Россию, но и про Соединенные Штаты. Это пуританская страна, несмотря на имидж. И во многих местах история про какие-то интимные отношения может оказаться крайне критичной. Достаточно вспомнить Билла и Монику.

Необязательно даже вставлять ваше лицо в порнофильм, вас могут вставить в сцену, где вы что-нибудь не то говорите или делаете. При нынешнем уровне чувствительности к этой проблеме это довольно серьезный пример атаки на вас».

С помощью дипфейка можно будет испортить человеку так называемый социальный рейтинг, уже существующий, например, в Китае, где ведется слежка за гражданами с помощью искусственного интеллекта через камеры, работает система распознавания лиц и с помощью этого учитываются все действия человека: на улице, в магазине, где угодно. На основании собранной информации гражданину могут отказать в кредите или работе. Есть опасения, что идея социального рейтинга будет распространена за пределы Китая.

«Прямой и полной защиты от дипфейков я, честно говоря, не вижу, — говорит Василий Буров. — Понятно, что сейчас эксперты при определенных условиях могут разобраться, где подделка. Есть особенности у изображений, которые создаются нейронными сетями.

А дальше, как обычно, возникнет война пули и брони. Эксперты будут все лучше и лучше определять, где подделка. Появятся сервисы, которые будут делать это автоматически с применением тех же нейронных сетей. Одновременно будут появляться все новые и новые технологии машинного обучения, которые сделают фейки все более реалистичными».

Сервисы для определения дипфейков находятся в активной разработке. Год назад компания Microsoft анонсировала сервис Microsoft Video Authenticator — программное обеспечение, которое позволяет выявить, проводились ли манипуляции с видео или фото. После того как Марк Цукерберг столкнулся с подделкой своей личности, Facebook совместно с Мичиганским университетом разработал свой «детектор» фальшивых изображений. Но большинство подобных программ отсутствуют в открытом доступе.

Впрочем, одними технологиями с киберпреступлениями не справиться, нужно менять отношение общества к этой проблеме, считает эксперт.

«В будущем, скорее всего, появится довольно высокий уровень ответственности за это, — говорит Василий Буров. — Ведь подделка личности — это такая же история, как подделка документов. И, скорее всего, подделка личности станет одним из очень серьезных преступлений, бороться с которыми возможно путем формирования мнения об их неприемлемости. Сформируется сознание общественной нетерпимости к этому явлению, и появится другая правоприменительная практика. Я думаю, что это единственный способ взять ситуацию под контроль».

Как распознать дипфейк?

Александра Мурзина
ведущий специалист по машинному обучению в Positive Technologies

 

Надежных способов отличить дипфейк от настоящего видео нет. Однако, так как технология уже не нова, то техники распознания дипфейков есть.

Раз нейронные сети применяют для создания дипфейков, то их можно использовать и для решения обратной задачи — детектирования поддельных видео. Самый распространенный подход — показать нейросети два видео: оригинальное и созданное с помощью дипфейк-технологии. Тогда нейросеть, которая учится, начнет различать неуловимые человеком признаки сгенерированного видео.

Другой интересный подход к видео — это извлечение временных признаков между кадрами видео, так как известно, что эта согласованность не достигается при генерировании видео. То есть при просмотре видео вы не заметите, но при покадровом анализе можно увидеть недостатки. Так и обучают нейросети — обрабатывать кадры на большой скорости они могут эффективнее человека.

В теории результаты выглядят интересными, однако использовать в повседневной жизни такие разработки трудно, они требуют вычислительных ресурсов, а значит, недоступны обычным пользователям. Но благодаря тому, что этот феномен изучается, техниками анализа данных получены некоторые интересные результаты, которые могут быть полезны и простому пользователю. Ребята из Массачусетского технологического института (MIT) создали специальный сайт, где можно потренироваться. На основе своих исследований специалисты из MIT предложили ряд рекомендаций, которые могут помочь отличить дипфейк от реального видео.

  1. Обычно с помощью дипфейков меняют именно лицо. Оно не всегда может подходить к телу, и если это известный человек, то можно сравнить его телосложение в других источниках.
  2. Кожа может быть неестественно гладкой. Стоит обратить внимание на соответствие кожи возрасту человека.
  3. В области глаз и бровей могут быть неестественные тени, во время видео они не всегда могут передавать естественные физические изменения.
  4. Очки и аксессуары. На очках могут быть странные блики, а аксессуары могут быть странно сгенерированы. На фотографиях это очень заметно.
  5. Все еще не всегда получается сделать волосы достаточно естественными. Могут исчезнуть или появиться бакенбарды, неестественная граница волос и кожи.
  6. Обращаем внимание на движение глаз: соответствуют ли они ситуации, которая происходит, и тому, чего вы ожидаете.

Если сильно тоскуешь: технологии, которые позволяют разговаривать с мертвыми

Кто и как слушает нас в телефонах и компьютерах?

Убьет ли искусственный интеллект твою профессию?

На сайте могут быть использованы материалы интернет-ресурсов Facebook и Instagram, владельцем которых является компания Meta Platforms Inc., запрещённая на территории Российской Федерации