Posted 13 декабря 2023, 09:05
Published 13 декабря 2023, 09:05
Modified 13 декабря 2023, 09:05
Updated 13 декабря 2023, 09:05
Фишинг — один из типов кибермошенничества, при котором злоумышленники выдают себя за надежный источник в интернете посредством рассылки сообщений на электронную почту. Посредством фишинговой атаки персональные данные и деньги пользователя похищают с помощью фейковых аккаунтов или сайтов.
На сегодняшний момент фишинг является наиболее распространенным и опасным видом финансового мошенничества. Об этом рассказал научный сотрудник кафедры экономики инноваций ЭФ МГУ имени М. В. Ломоносова, директор и соучредитель 4BRAIN Евгений Буянов:
«По данным Федеральной службы безопасности РФ, фишинговые атаки часто имитируют сообщения от известных банков или финансовых институтов. Мошенники могут использовать убедительно выглядящие логотипы и форматирование, чтобы убедить жертву в подлинности письма. Такие письма часто содержат прямые ссылки, ведущие на поддельные веб-сайты, где жертвам мошенничества предлагается ввести конфиденциальные данные, такие как пароли от банковских аккаунтов или номера кредитных карт».
Отличие фишинга от других хакерских атак в том, что мошенники манипулируют человеческими эмоциями — любопытством и жаждой получения легкой наживы.
Злоумышленники собирают информацию о человеке из открытых источников и присылают на его электронную почту письмо от популярных сервисов: от банка, магазина, провайдера. При этом предлагается что-нибудь купить со скидкой, получить подарок или вывести деньги со счета. Человек переходит на сайт-клон и вводит свои данные, которые позже используются мошенниками для кражи денежных средств со счета жертвы.
По словам директора 4BRAIN Евгения Буянова, есть несколько способов защиты от финансового мошенничества в виде фишинга:
Если вы все же стали жертвами финансового мошенничества, то, по мнению Евгения Буянова, шанс вернуть средства невелик, но все же попытаться стоит. Специалист советует незамедлительно обратиться в свой банк и сообщить о финансовом мошенничестве. В отдельных случаях банк может быстро среагировать и вернуть утраченные средства, если вовремя была замечена подозрительная активность и включена соответствующая защита.
«Очень важно сообщить о финансовом мошенничестве в правоохранительные органы. Они могут помочь в расследовании и возможном возврате средств гражданину, а также предотвратить повторение таких атак в будущем», — прокомментировал эксперт.
В марте 2023 года российские специалисты по кибербезопасности впервые зафиксировали массовые рассылки на электронные адреса фишинговых писем, созданных с использованием искусственного интеллекта (ИИ). Это открывает новые возможности для финансового мошенничества, поскольку ИИ помогает повысить достоверность текстов, вызвать доверие пользователей и увеличить вероятность обмана жертв.
Например, искусственный интеллект умеет правильно и быстро перестраивать наборы слов и устранять различные ошибки. Поэтому человеку становится сложнее понять, что текст прислала не серьезная официальная организация, а мошенники.
«Кроме традиционных методов финансового мошенничества — фишинга и социальной инженерии, современные мошенники всё чаще используют технологии искусственного интеллекта (ИИ) для усиления своих атак. ИИ позволяет создавать более убедительные и трудноотличимые поддельные сообщения и веб-сайты, а также автоматизировать процесс фишинга, что увеличивает объем и эффективность атак», — отметил специалист.
Но текстовые сообщения, созданные ИИ, не самый опасный вид фишинга. В нынешнем году пользователи столкнулись с новой схемой финансового мошенничества — клонированием голоса и созданием образа с помощью искусственного интеллекта. Что это значит?
Преступник находит в соцсетях фрагмент разговора или ролика и создает клон голоса. При этом достаточно всего нескольких секунд записи, чтобы с помощью нейросети создать поддельный голос. Идентичность настолько натуральна, что даже родственники не сразу могут отличить подделку. То же касается и образа, когда с помощью синтеза медиаконтента искусственным интеллектом создается видеоклон человека.
«По данным Международного агентства кибербезопасности, одним из наиболее опасных применений ИИ в финансовом мошенничестве является глубокая подделка (deepfake) — технология, позволяющая создавать поддельные видео- или аудиозаписи, в которых люди кажутся говорящими или действующими таким образом, который они на самом деле никогда не производили. Это может включать создание видео- или аудиосообщений, которые кажутся отправленными надежными источниками, такими как известные личности или даже голосовые подсказки банковских систем», — рассказал Буянов.
Проверить подлинность таких рассылок нелегко, но специалисты советуют обращать внимание на качество видео- и аудиоматериалов. Должны насторожить неестественная мимика, опережение звука сменяемости картинки, немного механическое звучание голоса, низкое разрешение и нечеткость изображения.
Евгений Буянов считает, что новые технологии требуют более продвинутых методов защиты от финансового мошенничества. Он советует следить за последними тенденциями в кибермошенничестве и включать критическое мышление, чтобы вовремя распознавать потенциальные угрозы.
Кроме того, искусственный интеллект можно применять и самому пользователю для защиты от финансового мошенничества. Нейросеть способна анализировать электронную почту и рассылки, удалять фишинговые ссылки и распознавать поддельные сайты и сообщения.
«В случае столкновения с подозрительной деятельностью, связанной с ИИ и глубокой подделкой, важно также сообщить о ней в соответствующие органы, так как это может помочь в борьбе с распространением подобных технологий в финансовом мошенничестве», — заключил эксперт.