No-code конструктор от Unisender. Простая интеграция, подробная аналитика, готовые шаблоны сценариев. 14 дней — 0 ₽.

Разбираемся с новым видом мошенничества
Искусственный интеллект может создавать двойников человека в видео, изображениях и аудиозаписях. Такие двойники называются дипфейками. Иногда дипфейки помогают режиссерам, сценаристам или актерам озвучки. А иногда их используют мошенники, чтобы обмануть людей.
В статье подробно разбираем плюсы и минусы использования дипфейков. А также рассказываем, как отличить подделку от оригинала и как защитить себя от дипфейков.
Представьте, что вы смотрите видео, на котором ваш любимый актер говорит что-то невообразимое. Или появляется в фильме, в котором на самом деле не снимался. Это называется дипфейк (от deep learning – «глубокое обучение» и fake – «подделка») — поддельное видео, аудио или фото, созданное нейросетями.
Пример дипфейка — видео с Томом Крузом. Видео настолько реалистичное, что люди оставляют под видео комментарии «На самом деле немного страшно, насколько это реально выглядит» или «фейк Тома здесь машет руками, поправляет прическу и плавно надевает очки. Никаких глюков и мерцаний вообще нет».
Дипфейк Тома Круза настолько реалистичен, что зрителям становится жутковато от осознания, что перед ними не оригинал
Дипфейки стали активно появляться с 2017 года, когда пользователи Reddit начали экспериментировать с новой технологией машинного обучения. Тогда с помощью ИИ они подменяли лица девушек в роликах 18+ на лица известных актрис.
С тех пор нейросети поумнели, а создавать дипфейки стало проще.
В основном дипфейки используют в кинематографе и развлекательных роликах. В них с помощью дипфейков омолаживают актеров, улучшают качество лиц или заменяют одних актеров на других.
Например, в фильме «Изгой-один. Звездные войны: Истории» воссоздали Питера Кушинга, который сыграл гранд-моффа Таркина.
Другой пример — «омолодевшие» Роберт Де Ниро, Джо Пеши и Аль Пачино в фильме «Ирландец». По сюжету, герои картины появляются в фильме в возрасте 24, 36, 41, 42, 47, 55, 76 лет. И чтобы не использовать гримм, режиссер фильма Мартин Скорсезе использовал программу Face Finder для искусственного омоложения актеров.
Еще один кейс использования дипфейков — озвучка фильмов и сериалов на разных языках. Дипфейки помогают менять движения губ так, чтобы при дубляже не было рассинхронизации и закадровый голос всегда совпадал со словами героя.
Но иногда дипфейки используют в опасных целях: для обмана, шантажа, манипуляции общественным мнением или фишинга.
В случае с обманом, мошенники копируют голос жертвы, генерируют копию его голоса в нейронке с просьбой перевести деньги или что-то в этом роде. А потом звонят родственникам и друзьям жертвы, включают сгенерированный голос и ждут чуда.
Иногда мошенники идут дальше: взламывают социальные сети жертвы и пишут от её имени кому попало из контактов с просьбой занять денег. А в подтверждение того, что это пишет сама жертва — присылают голосовые сообщения. А если пишут в Telegram или WhatsApp — могут даже круглые видео прислать. И сразу подделку не заметить — кружок реально выглядит так, будто его записал тот самый человек.
В итоге жертва переводит деньги на счёт мошенников и те бросают аккаунт.
С шантажом все проще: злоумышленники могут сделать дипфейк с участием любого человека. А затем написать жертве и угрожать, что выложат дипфейк в сеть, если жертва не отправит деньги.
Некоторые злоумышленники создают фальшивые обращения политиков, в которых те якобы высказывают экстремистские или противоречащие их реальной позиции взгляды. Поддельные заявления быстро распространяются в социальных сетях и вводят людей в заблуждение.
Например, в 2018 году злоумышленники создали дипфейк с бывшим президентом США Бараком Обамой, в котором он оскорбляет нового президента Дональда Трампа. Ролик стал вирусным и быстро разлетелся по соцсетям — люди возмущались, пока не поняли, что это дипфейк.
Примеров фишинга тоже много. Например, в 2019 г. в Великобритании мошенники создали аудиодипфейк голоса директора немецкой энергетической компании. Позвонили его подчиненному и потребовали в течение часа перевести €220 тыс. венгерскому поставщику. Сам пострадавший менеджер сказал, что узнал по телефону слабовыраженный немецкий акцент своего начальника и общий тон его голоса. Поэтому и перевел деньги.
Сильно вдаваться в технологии не будем, объясним общий принцип.
Сначала нейросеть обучают на настоящих записях человека: голосовых сообщениях, фотографиях и видео. Нейронка анализирует эти данные и создает математическую модель человеческого лица. Запоминает, как выглядит «типичное» лицо, его пропорции, как оно меняется при разных эмоциях, как и с какой интонацией человек разговаривает. По ним нейронки учатся подделывать лицо, мимику и голос. И когда в нейросеть загружают нужное фото, ИИ распознает черты лица, а затем переносит данные из базы на статичный портрет.
Пример такой нейронки — разработка Samsung и «Сколково». Программисты сделали нейросеть, которая может «оживлять» статичные изображения лиц.
Отличить дипфейк от настоящего видео сложно. Технологии развиваются, скиллы мошенников тоже. Если раньше в фейковых видео было много явных косяков, то сейчас их почти не найти.
Но есть несколько признаков, по которым можно вычислить дипфейк:
Это самые распространенные проколы нейронок, по которым можно вычислить дипфейк. Но даже если вы не заметили этих признаков, это не значит, что видео настоящее.
Поэтому главный совет — всегда включайте критическое мышление. Не верьте даже самым правдоподобным роликам. Особенно, если они вызывают у вас сильные эмоции — шок, возмущение или страх. Именно на таких эмоциях пытаются играть мошенники. Они хотят снизить вашу бдительность и обмануть вас.
А если видео кажется вам подозрительным, сделайте фактчекинг, поищите эту же информацию в других источниках. Посмотрите, что пишут об этом серьезные СМИ и эксперты. Если нигде про это не написано, скорее всего, новость — фейк.
Чтобы мошенники сделали дипфейк, им нужно получить как можно больше фото, видео и записей голоса человека. Найти информацию они могут двумя способами: скачать что-то из открытых соцсетей или взломать аккаунт человека и скачать информацию из переписок.
Чтобы защититься, соблюдайте несколько правил:
Дипфейки — это видео, аудио или фото, созданные нейросетями на основе большого количества реальных записей человека.
Дипфейки используют в кинематографе для омоложения актеров, улучшения качества лиц или замены одних актеров на других. Их также применяют для озвучки фильмов и сериалов на разных языках, чтобы избежать рассинхронизации.
Иногда дипфейки используют и в опасных целях: для обмана, шантажа, манипуляции общественным мнением или фишинга.
Отличить дипфейк от настоящего видео сложно, но есть несколько признаков: размытое и нечеткое лицо, неестественные тени и блики, редкое моргание, зубы, похожие на белое пятно, странный вид одежды и фона. Главное — всегда включайте критическое мышление и не верьте даже самым правдоподобным роликам. Особенно тем, что вызывают сильные эмоции.
Чтобы защититься от мошенников, не загружайте свои фото, видео и аудиозаписи в интернет. Используйте водяные знаки, придумайте кодовое слово для общения в переписках, надежно храните пароли и настройте двухфакторную аутентификацию.
Читайте только в Конверте
Искренние письма о работе и жизни, эксклюзивные кейсы и интервью с экспертами диджитала.
Проверяйте почту — письмо придет в течение 5 минут (обычно мгновенно)