Александр Куманев
О появлении новой схемы мошенничества информирует официальный тг-канал Управления по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД России (Киберполиция России). Ранее метод мошенников описывали в библиотеке знаний по киберграмотности «Кибрарий» от «Сбера».
Схема действий мошенников выглядит следующим образом.
«Мошенники могут получить доступ к личному кабинету клиента из приложения на устройстве и украсть деньги или убедить его перевести их на „безопасный счет“», — рассказали в Киберполиции.
Стоит также отметить, что большинство мобильных приложений обновляются автоматически без участия пользователя. Этим и пользуются мошенники — мало кто обновляет ПО вручную, а значит, велика вероятность, что будущая жертва согласится на контакт со «специалистом».
В «Сбере» отметили, что злоумышленники работают в парах, чтобы сбить с толку жертву и убедить ее выполнить нужные действия. Киберпреступники рассказывают, что во время демонстрации экрана к смартфону подключается «роботизированная система для диагностики счета». Формулировка для многих россиян может показаться убедительной, но в реальности такой системы не существует и не может существовать. Это просто технический термин, чтобы оказать на жертву психологическое воздействие.
Чтобы не стать жертвой обмана, нужно помнить, что сотрудники банков не используют мессенджеры, чтобы связаться с клиентом. Нельзя демонстрировать экран, в том числе по видеосвязи, незнакомцам, даже если они представляются сотрудниками банков.
Развитие искусственного интеллекта (ИИ) способствовало появлению технологии дипфейк (deepfake), которая подразумевает синтез контента нейросетью на основе имеющихся фрагментов. Таким образом можно подделать лицо, фон, мимику, жесты, голос в фото, видео и аудио. Есть решения, позволяющие накладывать всевозможные «маски» в режиме реального времени. Например, во время беседы по видеосвязи.
С помощью дипфейка киберпреступники убедили сотрудника гонконгского подразделения транснациональной компании перевести на их счета 25 млн долларов. Как рассказали в Киберполиции, злоумышленники нашли в открытом доступе видеозаписи с топ-менеджментом компании, создали дипфейки начальства и позвонили сотруднику по видеосвязи.
«Мошенники организовали видеозвонок, якобы от коллег работника с участием финансового директора британского подразделения компании, который убедил жертву перевести требуемую сумму», — рассказали в полиции.
Существуют инструменты, позволяющие распознать дипфейки, но во время общения с мошенниками не всегда есть возможность их использовать. К тому же, вымогатели пытаются сбить жертву с толку, чтобы она выполняла их указания. Существуют алгоритмы для защиты видеосвязи от дипфейков, а также механизмы внедрения маскирующих групп пикселей, которые помешают нейросети создать реалистичную цифровую копию человека.
На подделку могут указывать неестественная интонация, однотонный голос, зацикленные фоновые звуки, редкое моргание, неестественные и нетипичные движения, отсутствие синхронизации в речи и движении губ, различные аномалии.
Создать идеальную копию человека крайне затруднительно, не говоря уже о возможности генерации в режиме реального времени. При этом технологии продолжают развиваться, а в будущем наверняка появятся более совершенные алгоритмы.
Если возникли сомнения в подлинности собеседника, специалисты рекомендуют воспользоваться альтернативным каналом связи, задать вопрос, ответ на который не знают другие. Рекомендуется ограничить публикации фото-, видео- и аудиоконтента в соцсетях или ограничить доступ к ним. Необходимо соблюдать меры кибербезопасности, чтобы злоумышленники не могли получить доступ к конфиденциальной информации и контенту, которые в будущем могут использоваться в мошеннических целях.