Posted 13 декабря 2023, 15:07

Published 13 декабря 2023, 15:07

Modified 13 декабря 2023, 15:07

Updated 13 декабря 2023, 15:07

Технология дипфейков позволяет фабриковать поддельные видео- и аудиоматериалы

Как финансовые мошенники могут подделать голоса ваших друзей и родственников

13 декабря 2023, 15:07
Фото: Midjourney. Технология дипфейков позволяет фабриковать поддельные видео- и аудиоматериалы
Искусственный интеллект (ИИ) с каждым днем совершенствуется, и этим пользуются злоумышленники — в частности, они взяли на вооружение способность ИИ воспроизводить голоса людей. В итоге образовался новый вид финансового мошенничества, схемы которого строятся на использовании технологии дипфейков.

Audio deepfake (голосовой дипфейк, глубокий фейковый синтез) представляет собой метод обработки звуковых записей с использованием нейросети. Искусственный интеллект может изменять голос на аудиозаписи таким образом, что его становится практически невозможно отличить от настоящего и у собеседника создается впечатление, что он общается с живым человеком.

Голосовой дипфейк первоначально создавался для улучшения жизни людей: создания аудиокниг, для помощи потерявшим голос и др. Кроме того, посредством применения данной технологии можно создавать персонализированных цифровых помощников, а также службы преобразования текста в речь и перевода речи с естественным звучанием на выходе.

Однако злоумышленники нашли еще одну нишу для применения аудиодипфейков — финансовое мошенничество. Они подделывают голосовые сообщения и с их помощью обманывают своих жертв.

Как рассказала основатель бренда Business Svaha, инвестор и блогер в сфере инноваций и высоких технологий Мария Кучеренко, технология дипфейков позволяет фабриковать поддельные видео- и аудиоматериалы, которые выглядят как настоящие, и использовать их для совершения мошенничества.

«Как правило, в финансовом мошенничестве используются аудиодипфейки, с помощью которых создаются поддельные голосовые сообщения. ИИ дает аферистам возможность подделывать голоса работников банков и других финансовых организаций, представителей банков, финансовых учреждений или даже близких людей, обращаясь к жертвам с просьбой подтвердить личную информацию или выполнить финансовые операции», — пояснила эксперт.

Она отметила, что используемые при совершении финансового мошенничества поддельные голосовые сообщения могут вводить людей в заблуждение, заставляя их совершать нежелательные или опасные действия.

«Поэтому крайне важно быть бдительными и проверять подлинность голосовых сообщений, особенно если они связаны с финансовыми операциями», — подчеркнула блогер.

Виды мошенничества с использованием аудиодипфейков

Существует несколько вариантов использования голосовых дипфейков для совершения мошенничества. Специалисты различают как минимум три наиболее распространенных из них:

  • финансовое мошенничество — злоумышленники могут проникать в голосовую почту банков, финансовых учреждений или иных организаций и оставлять там поддельные голосовые сообщения с просьбой подтвердить личную информацию либо совершить какие-то действия, которые могут привести к финансовым потерям;
  • фальшивые просьбы о помощи — мошенники способны подделывать голоса друзей или родственников и обращаться к жертвам от их имени с просьбой оказать финансовую поддержку. Знакомый голос, как правило, вызывает доверие, поэтому люди нередко идут на поводу у таких «просителей»;
  • социальный инжиниринг — аферисты могут использовать аудиодипфейки для подделывания голосов политиков, членов правительства либо других хорошо известных личностей, чтобы получить конфиденциальную информацию или вызвать панику у населения.

Отличия голосового дипфейка от голоса живого человека

По словам основателя бренда Business Svaha, отличить дипфейковый голос от настоящего человеческого может быть несколько проблематично, так как технологии голосового синтеза непрерывно совершенствуются. Но есть ряд косвенных признаков, которые могут помочь выявить потенциальное финансовое мошенничество с использованием аудиодипфейка:

  • неестественная модуляция и интонация — дипфейковый голос может звучать роботизированно или механически, быть лишенным естественной модуляции и интонации, обычно присущих настоящему человеческому голосу. Так что следует насторожиться, если собеседник говорит с вами слишком монотонно;
  • несоответствие между голосом и информацией — когда голос собеседника не соотносится с его возрастом или полом (например, звучит слишком молодо для пожилого человека и др.). Кроме того, стоит обращать внимание на язык и акцент — если они не соответствуют личности или происхождению вашего гипотетического знакомого, то это с большой долей вероятности — попытка мошенничества;
  • артефакты и искажения — дипфейковые голосовые сообщения в ряде случаев могут сопровождаться нечеткостью звука, шумом на заднем фоне или неровными переходами между звуками. Все это может указывать на использование технологии синтеза голоса в целях мошенничества;
  • слишком длинные паузы — в реальной жизни люди обычно не делают длительных пауз между вопросом и ответом, если это не вызвано раздумьями или поиском информации. Тогда как дипфейковому голосовому синтезатору может потребоваться дополнительное время на обработку и генерацию ответа. Конечно, ваш собеседник может долго думать над ответами, но если подобное происходит в течение всего разговора — это повод заподозрить, что с вами говорит не живой человек, а голосовой синтезатор, используемый для совершения финансового мошенничества.

Как обезопасить себя от мошенничества с использованием аудиодипфейков

Для того чтобы максимально обезопасить себя от финансового мошенничества, необходимо сохранять бдительность и быть внимательным к деталям. Например, поводом для беспокойства может стать ситуация, когда вам вдруг поступило голосовое сообщение от человека, который внезапно просит крупную сумму денег в долг или ему вдруг зачем-то понадобились ваши личные данные.

Кроме того, нередки примеры мошенничества, когда женщине звонит «сын», который сообщает, что попал в ДТП и теперь ему нужны деньги, чтобы «откупиться от следователя». И в первом, и во втором случаях не лишним будет связаться с предполагаемым собеседником, чтобы выяснить, действительно ли он ранее отправлял вам голосовое сообщение с просьбой о помощи.

А может случиться и наоборот: собеседник не будет ничего у вас просить, а сам предложит выгодную сделку, ценную информацию или финансовую помощь. В таком случае также не стоит торопиться с ответом. Возьмите паузу и постарайтесь выяснить, действительно ли позвонивший или приславший вам сообщение — тот, за кого себя выдает, и поступившее предложение не является попыткой мошенничества.

Для этого можно проверить в интернете номер телефона, с которого поступил звонок или сообщение, а также связаться с организацией, представителем которой собеседник назвался, по контактам, указанным на ее официальном сайте. И, конечно же, чтобы защититься от мошенничества в будущем, стоит постараться побольше узнать о технологии аудиодипфейков, а также о возможных последствиях, связанных с ней.

Аудиодипфейки в случае использования злоумышленниками для совершения мошенничества могут представлять серьезную угрозу финансовому благополучию граждан, однако и от них можно защититься.

«Будьте бдительны, подозрительны и всегда проверяйте источник перед предоставлением конфиденциальной информации или совершением финансовых операций. Знание о технологии аудиодипфейков и ее потенциальных угрозах является одним из главных средств защиты от этого нового вида мошенничества. Оставайтесь в безопасности и будьте внимательны к ложным голосам, которые могут попытаться обмануть вас», — резюмировала Мария Кучеренко.
Подпишитесь