No-code конструктор от Unisender. Простая интеграция, подробная аналитика, готовые шаблоны сценариев. 14 дней — 0 ₽.

Как мошенники используют нейросети и как распознать обман
Нейросети — полезный инструмент для генерации картинок, текстов, обработки аудио и видео. Но в руках злоумышленников эти возможности используются в корыстных целях: для шантажа и вымогательства. Случаев ИИ-мошенничества становится больше, поэтому мы решили разобрать обманные схемы и рассказать, как не попасться на крючок.
Телефонное мошенничество благодаря ИИ вышло на новый уровень. Злоумышленник обучает нейросеть «разговаривать» чужим голосом, а потом звонит или отправляет голосовые сообщения жертве.
В ОАЭ был случай, когда аферист, сымитировав голос директора компании, позвонил сотруднику банка и убедил его перевести на новый счет $35 млн. Похожая история произошла и в России, в Нижнем Новгороде: бухгалтеру позвонила «директор» и попросила достать наличные из сейфа и отправить их курьером. Жертва утверждает, что нейросеть в точности повторила голос руководительницы.
Мэр Березовского Свердловской области Евгений Писцов рассказывал о том, что аферисты от его лица писали и звонили людям с целью вымогательства денег.
Следующая история показывает, что нейросеть способна разрушить карьеру. Актриса озвучки и дубляжа Алена Андронова подала в суд на «Т-Банк» за недобросовестное использование записи ее голоса, которая должна была применяться только для обучения голосового помощника. Однако банк предоставил возможность кому угодно и как угодно использовать голос Алены для синтеза любых реплик. Так, в 2022 году она услышала рекламу фильмов для взрослых, озвученную ее голосом.
Как распознать обман:
А еще задолго до этого в сети распространилось видео с якобы президентом Казахстана Токаевым, где тот призывал вкладываться в инвестплатформу Маска.
Банк России предупреждает о том, что мошенники используют дипфейки, чтобы выманивать деньги у граждан. Они крадут фотографии и видеозаписи из соцсетей, синтезируют двойников и рассылают видеоизображение знакомым. Как правило, клон рассказывает о тяжелой ситуации и просит отправить деньги.
Иногда дипфейки создаются в развлекательных целях или для привлечения внимания. В 2023 году, например, российский президент на пресс-конференции пообщался с неким «студентом СПбГУ».
Часто героями таких видео становятся актеры. В 2021 году в TikTok распространилось видео, где двойник Леонардо ДиКаприо на Красной площади говорит на русском и передает привет своей маме.
Как распознать обман:
В отдельной статье мы подробно рассказали о дипфейках и способах их распознать.
Фотографии, созданные в нейросетях, многих вводили в заблуждение, иногда — даже самых близких людей. В этом году певица Кэти Перри получила от мамы сообщение, где та хвалила ее образ на Met Gala. Только вот звезда мероприятие пропустила, а фото Перри в роскошном платье было фейковым.
Часто мошенники продают откровенные фотографии знаменитостей, созданные с использованием нейросетей. На eBay предлагали фейковые снимки Тейлор Свифт, Селены Гомес, Кэти Перри, Арианы Гранде, Дженны Ортеги, Марго Робби и Галь Гадот.
В 2023 году по интернету разлетелся снимок Папы Римского в длинном белом пуховике и со стаканчиком кофе. Картинка абсурдная, но выполнена достаточно реалистично, чтобы в нее поверили.
Иностранный журналист сгенерировал несколько фотографий, где бывшего президента США Дональда Трампа задерживает полиция.
Пользователь Reddit с ником Arctic_Chilean выложил фейковые снимки разрушительных последствий землетрясения и цунами, которые якобы накрыли тихоокеанское побережье США и Канады в 2001 году. Фото были выложены в одной из веток, где публиковались творения нейросети Midjourney— так что никакого обмана. Но пост развирусился, попал на главную страницу сайта, и те, кто не знал контекст, поверили в эти снимки.
На международном конкурсе фотографий Sony World Photography Awards победил снимок, сгенерированный нейросетью. Автор, немецкий художник Борис Эльдагсен, от награды отказался и жестко раскритиковал организаторов за ошибку. По его словам, он отправил созданное ИИ фото, «чтобы проверить, готов ли конкурс к изображениям нейросетей». Выяснилось, что не готов.
Как распознать обман:
Есть сервисы, которые помогают отличить нейросетевые изображения от настоящих: Maybe’s AI Art Detector, Hive и другие. А еще мы писали подробный гайд о том, как определить, что картинку сгенерировала нейросеть.
Мошенники генерируют изображения товаров, выкладывают их на маркетплейсы под видом настоящих и пытаются завести переписку в мессенджере, чтобы жертва оплатила покупку в обход площадки. Про подобные случаи обмана покупателей в 2022 году сообщал Wildberries.
Маркетплейс со своей стороны ввел для продавцов дополнительную идентификацию через банковские сервисы, но пользователям все равно лучше внимательнее приглядываться к фотографиям товаров и не переходить по сторонним ссылкам.
Как распознать обман:
Аферисты используют нейросети, чтобы те давали подсказки: фразы и выражения, которые можно услышать от работника банка или налоговой. Мошенник заставляет жертву перевести деньги, сообщить паспортные данные или реквизиты банковской карты.
И такой способ обмана связан не только с финансовыми организациями. Популярный сайт для бронирования отелей Booking.com столкнулся с наплывом аферистов, рассылающих по email сгенерированные ИИ сообщения от имени отелей. Злоумышленники хотели получить личные данные путешественников.
Как распознать обман:
Мошенник может выдавать себя за девушку или парня с сайта знакомств. Способ обмана не новый, но стал популярнее из-за нейронки LoveGPT. Злоумышленник отправляет нейросети сообщения жертвы, а в ответ присылает игривые фразы, которые выдает ИИ. Из доверчивого пользователя аферист вытягивает конфиденциальную информацию или деньги.
К этой же категории можно отнести случаи, когда мошенник генерирует фотографию несуществующего человека, знакомится онлайн и назначает свидание. Он просит купить билеты на мероприятие, кидает ссылку на фишинговый сайт, а когда жертва переводит средства, исчезает. По данным Group–IB, за периоды 12–14 февраля, 21–23 февраля, а также 6–8 марта 2023 года 7 группировок, занимающихся фальшивыми свиданиями, заработали 5 млн рублей.
Как распознать обман:
Боты могут спамить в комментариях в соцсетях, привлекая пользователей в Telegram-каналы или на сайты злоумышленников. Искусственный интеллект запрограммирован взаимодействовать с пользователями так, чтобы они не догадались, что их собеседник — не настоящий человек.
Похожий способ обмана — через мошеннические чат-боты. Так, в 2023 году российские аферисты расклеивали в общественных местах бумажки с QR-кодами, предлагая бесплатную консультацию по гарантированным выплатам. При переходе по коду открывался чат-бот, который убеждал людей, что им положены социальные выплаты, и жертвы вводили платежные данные.
Как распознать обман:
На сайте OnlyFake можно создавать фотографии документов. Изображение генерируется за несколько минут, стоит услуга $15 (около 1300 ₽). Нейросеть способна подделать паспорта и водительские права 26 стран мира. Снимки получаются настолько достоверными, что позволяют проходить проверку на криптобиржах.
Опасность в том, что мошенники могут украсть чужие данные, взять фото из соцсетей и сгенерировать фейковые изображения документов для регистрации в онлайн-казино, сервисах для аренды автомобилей, оформления микрозаймов.
Ранее сообщалось, что OnlyFake заблокирован. Сейчас он работает на другом домене. Несмотря на то, что на сайте прописан запрет нелегально использовать сгенерированные документы, ресурс всё же связан с распространением фейковых материалов — поэтому ссылку на него из этических соображений мы не дадим.
Как распознать обман:
Нейросети — это перспективный, удобный, но опасный инструмент. Даже если не брать в расчет многочисленные мошеннические схемы, ИИ сам часто выдает неправильные ответы на запросы пользователей. Нейросети делают ошибки, искажают факты, поэтому сгенерированную информацию необходимо проверять, особенно если это касается таких важных тем, как медицина, финансы, юридические вопросы.
Искусственный интеллект распространяется во многих сферах, и сейчас — самое время учиться тому, как обезопасить себя в новую технологическую эру.
Читайте только в Конверте
Искренние письма о работе и жизни, эксклюзивные кейсы и интервью с экспертами диджитала.
Проверяйте почту — письмо придет в течение 5 минут (обычно мгновенно)