Фишинговых атак с применением искусственного интеллекта становится все больше.
Они недорогие в подготовке и реализации, вариантов множество, попадание в цель почти гарантировано. Такие атаки не ограничиваются географическим положением и могут быстро масштабироваться, приводя компании к серьезным финансовым потерям. Это связано с тем, что используемые методы в основном нацелены на эксплуатацию человека – самого слабого звена любой системы защиты.
Эксперты, расскажут об актуальных механизмах атак и современных методах защиты в эпоху развитого ИИ.
Первыми, кто провел исследование о том, насколько успешно предварительно обученные модели могут распознавать личные данные в тексте, были Робин Стааб, Марк Веро, Мислав Балунович и Мартин Вечев. Они случайным образом выбрали 520 публичных профилей на Reddit’е, которые содержали 5814 комментария. Как итог, исследователи обнаружили, что модель ИИ смогла определить место рождения автора с вероятностью в 92%, а пол с вероятностью в 97%. Процесс фишинга с помощью ИИ в среднем осуществляется в 240 раз быстрее и, что еще важнее, в сотни раз дешевле, чем если бы этим занимался человек.
Однако современные фишинговые атаки с применением ИИ не ограничиваются только отправкой электронных писем. Они организуют многоканальные атаки, которые задействуют:
В России всего за восемь месяцев 2025 года объём «обращений» к потенциальным жертвам с ИИ увеличился в полтора раза. Специалисты ожидают, что к 2027 году Gen AI будет использоваться уже в 17% кибератак.
Нападения посредством искусственного интеллекта обходятся злоумышленникам дешевле, поскольку требуют меньше времени и ресурсов для подготовки.
Если нападающие достигают цели, это зачастую является только началом еще более масштабного инцидента – утечки данных. Все это оборачивается огромными финансовыми потерями для компаний. В мире показатель среднего ущерба от утечки данных для организации в 2024 году достиг более четырех миллионов долларов. В России – это примерно 11,5 млн руб.
Анализ географического распределения показывает, что наша страна сегодня занимает лидирующую позицию по объему утекших данных –
Все это показывает нам, насколько масштабным и экономически выгодным для злоумышленников является фишинг в наши дни.
Поговорим о новом инструменте - WormGPT. Это решение уровня Gen AI LLM (Мультимодальный ИИ), подобное ChatGPT, MS Copilot и альтернативам с открытым исходным кодом, но созданное во вредоносных целях. Будучи широкодоступным и не имея каких-либо этических ограничений, характерных для других легальных LLM, он используется (и даже рекламируется) для подготовки очень убедительных фишинговых писем и помогает злоумышленникам в атаках на коммерческую электронную почту.
Рассмотрим сценарий атаки с применением WormGPT:
Вот основные рекомендации для компаний:
Например, защитные решение на базе ИИ с применением алгоритма MLP (многослойный перцептрон), успешно справляются с выявлением фишинговых URL в 98,2% случаев, что значительно превосходит традиционные методы фильтрации, точность которых не превышает 85%.
Для повышения эффективности защиты важно сочетать технологические меры с постоянным обучением сотрудников. Комплексный подход позволяет минимизировать риски и значительно повысить устойчивость компаний к существующим угрозам.
Они недорогие в подготовке и реализации, вариантов множество, попадание в цель почти гарантировано. Такие атаки не ограничиваются географическим положением и могут быстро масштабироваться, приводя компании к серьезным финансовым потерям. Это связано с тем, что используемые методы в основном нацелены на эксплуатацию человека – самого слабого звена любой системы защиты.
Эксперты, расскажут об актуальных механизмах атак и современных методах защиты в эпоху развитого ИИ.
Что такое фишинг с ИИ
ИИ-фишинг — это технология на базе искусственного интеллекта, которую используют злоумышленники для проведения массовых атак. AI позволяет проводить анализ огромных массивов данных. Почти любому злоумышленнику вряд ли будет интересно подолгу изучать потенциальных жертв, и вот как раз тут им на помощь приходят большие языковые модели (LLM), которые могут делать нужные выводы практически бесплатно.Первыми, кто провел исследование о том, насколько успешно предварительно обученные модели могут распознавать личные данные в тексте, были Робин Стааб, Марк Веро, Мислав Балунович и Мартин Вечев. Они случайным образом выбрали 520 публичных профилей на Reddit’е, которые содержали 5814 комментария. Как итог, исследователи обнаружили, что модель ИИ смогла определить место рождения автора с вероятностью в 92%, а пол с вероятностью в 97%. Процесс фишинга с помощью ИИ в среднем осуществляется в 240 раз быстрее и, что еще важнее, в сотни раз дешевле, чем если бы этим занимался человек.
Однако современные фишинговые атаки с применением ИИ не ограничиваются только отправкой электронных писем. Они организуют многоканальные атаки, которые задействуют:
- Электронные письма;
- Синтезатор голоса;
- Ответы в чате в реальном времени;
- Дипфейки.
Статистика и аналитика
В недавнем исследовании Гарвардской школы имени Кеннеди в рамках эксперимента были проведены фишинговые атаки с использованием искусственного интеллекта. Они достигли цели в 54% случаев, в то время как успех «традиционного» фишинга оказался на уровне 12%.В России всего за восемь месяцев 2025 года объём «обращений» к потенциальным жертвам с ИИ увеличился в полтора раза. Специалисты ожидают, что к 2027 году Gen AI будет использоваться уже в 17% кибератак.
Нападения посредством искусственного интеллекта обходятся злоумышленникам дешевле, поскольку требуют меньше времени и ресурсов для подготовки.
Исследование Harvard Business Review сообщает, что «весь процесс фишинга можно автоматизировать с помощью LLM. Это снижает его стоимость более чем на 95% при сохранении равной или даже большей успешности». Решения на основе ИИ теперь доступны практически любому человеку, что упрощает развертывание успешной атаки.
Если нападающие достигают цели, это зачастую является только началом еще более масштабного инцидента – утечки данных. Все это оборачивается огромными финансовыми потерями для компаний. В мире показатель среднего ущерба от утечки данных для организации в 2024 году достиг более четырех миллионов долларов. В России – это примерно 11,5 млн руб.
Анализ географического распределения показывает, что наша страна сегодня занимает лидирующую позицию по объему утекших данных –
Для просмотра ссылки необходимо нажать
Вход или Регистрация
личной информации пользователей было размещено в даркнете. За ней идут США, Индия, Китай и Индонезия.Все это показывает нам, насколько масштабным и экономически выгодным для злоумышленников является фишинг в наши дни.
Технологии фишинга с ИИ
Каждый день мы выкладываем резюме на сайтах по поиску работы, пишем посты, делимся фотографиями или историями в соцсетях. Благодаря этому нейросети и злоумышленники располагают огромной информацией о нас. Фишинговые сообщения могут содержать знакомые элементы: наши упоминания покупок, недавние контакты с людьми или местоположение. Такой уровень персонализации повышает вероятность успеха.Поговорим о новом инструменте - WormGPT. Это решение уровня Gen AI LLM (Мультимодальный ИИ), подобное ChatGPT, MS Copilot и альтернативам с открытым исходным кодом, но созданное во вредоносных целях. Будучи широкодоступным и не имея каких-либо этических ограничений, характерных для других легальных LLM, он используется (и даже рекламируется) для подготовки очень убедительных фишинговых писем и помогает злоумышленникам в атаках на коммерческую электронную почту.
Рассмотрим сценарий атаки с применением WormGPT:
- Первый шаг в этом процессе – применение алгоритмов и инструментов WormGPT, предназначенных для поиска и анализа большого объема информации в интернете о человеке или группе. WormGPT используется для анализа полученных данных, определения интересов, характера и предпочтений жертвы.
- Вооружившись этими данными и получив возможность генерировать письма с высокой степенью персонализации, злоумышленник может сделать послания максимально правдоподобными, тем самым повышая вероятность того, что жертва поведётся на уловку.
- Далее ИИ составляет фишинговые письма, которые похожи на стиль общения жертвы. Этот прием способствует созданию атмосферы доверия и располагает к открытому общению.
- ИИ позволяет злоумышленникам и успешно масштабировать операции: создавать огромное количество уникальных писем, организовывать и проводить атаки на совсем разные цели.
Методы защиты и противодействия
Защититься от атак этого рода непросто. Однако, есть ряд мер, реализуя которые, организации могут свести инциденты к минимуму.Вот основные рекомендации для компаний:
- Внедрение аутентификации DMARC (Domain-based Message Authentication, Reporting & Conformance) — одна из самых эффективных мер защиты от фишинга. Она позволяет владельцам доменов электронной почты указывать, как обрабатывать письма, не прошедшие проверку SPF (Sender Policy Framework) или DKIM (DomainKeys Identified Mail);
- Многофакторная аутентификация (MFA): даже в случае кражи учётных данных MFA обеспечивает дополнительный уровень безопасности;
- Осторожность, внимательное отношение к деталям: будьте бдительны к внезапным запросам на коммуникацию от руководителей или коллег компании, которые кажутся необычными. Проверяйте их подлинность через дополнительные каналы связи, такие как телефонные звонки или личные сообщения;
- Отслеживание доменов-двойников. Используйте сервисы, которые проверяют достоверность сайтов в Интернете;
- Постоянное обучение сотрудников в сфере ИБ. Его можно реализовывать, в том числе, посредством различных платформ. Специальные курсы повышения осведомленности (как платные, так и бесплатные) предлагает множество организаций. Среди бесплатных платформ можно выделить Kaspersky ASAP, StopPhish, Secure-T, MEDOED. Подобные ресурсы помогут снизить вероятность реализации атак, включая ИИ фишинг.
Помогает ли ИИ для защиты компании от ИИ-фишинга?
Логичным ответом на угрозу является использование тех же технологий для защиты, что и для атаки. Статистика показывает, что это оправдано и высокоэффективно. Анализ данных внедрения защитных систем позволяет выделить несколько ключевых преимуществ ИИ в кибербезопасности:- Повышение скорости и эффективности обнаружения. Системы на базе ИИ, такие как XDR (расширенное обнаружение и реагирование), сократили время реагирования на инциденты в среднем на 44% в 2025 году. Более того, инструменты поиска угроз на базе ИИ выявили на 41% больше аномалий по сравнению со стандартными решениями SIEM, что позволило находить сложные и ранее неизвестные атаки.
- Оптимизация рутинных операций и разгрузка аналитиков. Почти половина предприятий по всему миру использует ИИ для автоматизации центров безопасности (SOC). Это позволяет снизить утомляемость специалистов, сфокусировать их внимание на критических угрозах и уменьшить число ложных срабатываний.
- Проактивное выявление конкретных угроз. Профессионалы отмечают высокую эффективность ИИ в решении конкретных задач безопасности:
- 53% считают его эффективным в выявлении спама и фишинговых писем;
- 50% используют ИИ для обнаружения уязвимостей в коде на этапе разработки;
- 49% полагаются на него для быстрого выявления вредоносных программ;
- 47% ценят ИИ за способность прогнозировать риски нарушителей.
Например, защитные решение на базе ИИ с применением алгоритма MLP (многослойный перцептрон), успешно справляются с выявлением фишинговых URL в 98,2% случаев, что значительно превосходит традиционные методы фильтрации, точность которых не превышает 85%.
Итого
Фишинг с использованием ИИ превратился в масштабную и экономически выгодную для злоумышленников угрозу. Атаки стали быстрее, дешевле и убедительнее за счет персонализации и многоканальности. Традиционные методы защиты уже недостаточны.Для повышения эффективности защиты важно сочетать технологические меры с постоянным обучением сотрудников. Комплексный подход позволяет минимизировать риски и значительно повысить устойчивость компаний к существующим угрозам.
Для просмотра ссылки необходимо нажать
Вход или Регистрация









