Posted 13 декабря 2023,, 06:40

Published 13 декабря 2023,, 06:40

Modified 13 декабря 2023,, 06:42

Updated 13 декабря 2023,, 06:42

Злоумышленники все чаще используют нейросети для получения доступа к личной информации гражда

Мошенники используют нейросети для обмана, шантажа и кражи денег: важно знать

13 декабря 2023, 06:40
Фото: Midjourney
Злоумышленники все чаще используют нейросети для получения доступа к личной информации гражда
В последнее время нейросети прочно вошли в нашу жизнь, и сложно найти сферу экономики, где бы не использовался искусственный интеллект (ИИ). Одновременно с этим нейросети несут определенный риск для безопасности людей, так как инновационные технологии нередко применяются в целях мошенничества.

Злоумышленники все чаще применяют алгоритмы машинного обучения и используют нейросети для получения доступа к личной информации граждан с целью мошенничества. Основатель и CEO компании Mirey Robotics, эксперт по искусственному интеллекту Андрей Наташкин рассказал о способах мошенничества с применением нейросетей, а также о том, как обезопасить себя от действий аферистов.

Способы мошенничества с использованием искусственного интеллекта

В арсенале злоумышленников имеется немало способов применения нейросетей в целях мошенничества. Это могут быть как подделка документов и голосовые дипфейки (подделка голоса), так и организация сбора средств якобы на благотворительные цели, шантаж с использованием поддельных видео- и фотодокументов, а также фишинговые рассылки для сбора личных данных.

Подделка документов и голоса

По словам основателя Mirey Robotics, искусственный интеллект научился хорошо справляться с созданием документов. Так, нейросети способны достаточно быстро генерировать поддельные паспорта, водительские удостоверения и банковские выписки.

Да что говорить о фальсификации документов, когда нейросеть может скопировать даже личность конкретного человека, проанализировав его стиль письма в соцсетях, и это тоже нередко используется для совершения мошенничества!

Например, основываясь на этих данных, нейросеть может написать письмо вашим родственникам и сообщить, что вы якобы попали в сложную ситуацию — для решения проблемы вам срочно требуются деньги. Кроме того, в целях совершения мошенничества может быть клонирован ваш голос — для этого, как пояснил Андрей Наташкин, используется технология синтеза реча (deep voice technology).

Он пояснил, что при совместном использовании этих двух инструментов злоумышленники способны создать запись вашего голоса, который будет говорить еще и вашими фразами. Например, известны случаи мошенничества, когда родители получали аудиозапись с голосом ребенка, который рассказывал, что его похитили и необходимо внести выкуп.

Еще один пример использования нейросетей в целях мошенничества — кража тридцати пяти миллионов долларов у управляющего банка Гонконга. Ему позвонил один из постоянных клиентов и сообщил, что его компания намерена совершить транзакцию на 35 млн долларов. В подтверждение этих слов банкиру пришло на электронную почту письмо с аналогичной просьбой и указанием реквизитов.

Управляющий подтвердил запрошенную транзакцию, а спустя некоторое время выяснилось, что и звонок, и письмо были поддельными и не имели отношения к данному клиенту, а гонконгский банкир стал жертвой мошенничества.

«Нейросети набирают популярность во всем мире. А еще быстрее они становятся популярными среди мошенников. И тут все достаточно просто. Первая причина — современные нейросети устроены так, что не нужно быть программистом, чтобы работать с ними. Эта простота привлекает мошенников», — отметил эксперт.

Второй же причиной, по его мнению, является то, что нейросети показывают стабильно хороший результат, исключающий фактор человеческий ошибки, а третья причина — высокая скорость работы. Все это вместе взятое создает практически неограниченные возможности для использования нейросетей в целях мошенничества.

«Например, ChatGPT может спокойно заменить целую команду программистов. Ну и последнее — это вариативность. Нейросети позволяют использовать разные схемы мошенничества и находить самые доходные варианты», — рассказал Андрей Наташкин.

Шантаж и сбор средств на благотворительность

Еще одним излюбленным способом мошенничества у злоумышленников является благотворительность и сбор пожертвований. Эти схемы не новы, но несмотря на большую информационную кампанию в СМИ число потерпевших постоянно растет.

При этом, как отмечает основатель Mirey Robotics, использование нейросетей не внесло существенных корректировок в уже существующие схемы мошенничества, однако они позволили значительно увеличить качество контента, что напрямую влияет на показатель доверия у аудитории.

Кроме того, нейросети способны генерировать фейковые интимные изображения на основе реальных фотографий из социальных сетей — этим организаторы мошенничества активно пользуются для того, чтобы шантажировать своих жертв.

«Мы видим достаточно много примеров, как самый популярный чат-бот от OPEN AI используется мошенниками. Поняв перспективность данной технологий для обмана людей, были созданы отдельные решения на основе искусственного интеллекта. Их цель — взлом банковских аккаунтов пользователей. Это FraudGPT и WormGPT. За небольшую плату даже начинающий хакер может получить к доступ к этим инструментам. Действительно, это лишь верхушка айсберга. Думаю, что в будущем такие нейросети будут становиться всё умнее, » — подчеркнул Андрей Наташкин.

Создание фишинговых писем

Еще одним популярным видом мошенничества является использование фишинговых писем, содержащих вредоносные ссылки. Эксперт по нейросетям рассказал, что не так давно в целях эксперимента было проведено сравнение навыков по созданию фишинговых писем чат-бота ChatGPT и реальных хакеров.

Задача была проста: составить письмо таким образом, чтобы пользователь проникся, поверил и кликнул по вредоносной ссылке. Результат оценивался по двум параметрам: времени выполнения и кликабельности письма. С точки зрения быстроты составления послания победил ИИ, который затратил на письмо не более 15 минут, тогда как хакерам потребовалось свыше 15 часов.

Что же касается убедительности информации в письме (его кликабельности), то в этом случае чат-бот, хоть и ненамного, но проиграл людям: его сообщение сработало на 11% против 14% открытий письма, составленного хакерами. Исследование итогов эксперимента наглядно продемонстрировало, что ChatGPT не доработал свое письмо с точки зрения эмоционального подхода.

Тем не менее, как отметил Андрей Наташкин, специалисты уверены, что недалек тот день, когда нейросети будут все больше интегрироваться в процесс создания фишинговых писем с целью мошенничества, а качество выполнения поставленной задачи будет соответствовать человеческому. И в первую очередь это будет достигнуто за счет того, что при составление писем нейросети будут анализировать контекст.

Он напомнил, что ИИ способен создать портрет личности человека по анализу профиля из социальных сетей, где можно получить исчерпывающую информацию о том, что для человека ценно, какими новостями и событиями он интересуется, какие места посещает. Это многофакторный анализ, позволяющий формулировать индивидуальные письма, доверие к которым будет намного выше.

Как не стать жертвой мошенников, использующих нейросети

Основатель Mirey Robotics дал несколько рекомендаций, с помощью которых можно значительно уменьшить риск стать жертвой мошенничества с помощью искусственного интеллекта. В их числе:

  • защита аккаунтов — необходимо везде, где это возможно, подключить двухфакторную идентификацию;
  • обеспечение безопасности профиля в социальных сетях — следует закрыть доступ посторонним к личной информации на страницах соцсетей, сделав их приватными;
  • установка спам-защиты от нежелательных звонков — в этом случае вы сразу увидите, кто вам звонит. По возможности, чтобы не стать жертвой мошенничества, не стоит отвечать на звонки с незнакомых номеров. Кроме того, если вы в разговоре почувствовали что-то неладное, лучше всего будет задать собеседнику случайный вопрос — это поможет понять, что вы общаетесь с живым человеком, а не с ботом.

В заключение специалист посоветовал всегда проверять информацию в нескольких источниках, чтобы исключить возможные попытки мошенничества.

«Например, в социальных сетях ваш друг выкладывает пост, что у него беда, ему срочно нужны деньги. Никогда не пишите в директ, лучше позвоните ему и уточните лично», — пояснил Андрей Наташкин.
"