Кибербезопасность на грани сингулярности: шансы на выживание в ИИ-войне

vaspvort

Ночной дозор
Команда форума
Модератор
ПРОВЕРЕННЫЙ ПРОДАВЕЦ
Private Club
Старожил
Migalki Club
Меценат💎
Регистрация
10/4/18
Сообщения
6.873
Репутация
11.609
Реакции
18.515
USDT
0
Сделок через гаранта
18
Искусственный интеллект находит все более широкое применения для автоматизации и оптимизации кибератак. Средства ИИ позволяют злоумышленникам генерировать вредоносный код, анализировать системы и обходить системы защиты, по минимуму привлекая ручной труд. Большие языковые модели (large language models, LLM) позволили значительно ускорить кибератаки и намного удешевили их. Кроме того, такие модели сделали разработку механизмов атак более доступной для киберпреступников с небольшим опытом. В результате использование ИИ приносит массу новых наборов для атак, которые реализуются быстрее и обладают отличной масштабируемостью. И такие атаки уже практически невозможно остановить, имея лишь традиционные средства информационной безопасности.

Как ИИ используется киберпреступностью​

Искусственный интеллект охотно используется различными хакерскими группировками. Средства ИИ помогают ускорять кибератаки, делают их более адаптивными к ландшафту средств защиты, а значит, более сложными для отражения. Вредоносные кампании благодаря ИИ становятся легко управляемыми и масштабируемыми — от создания вирусов до написания скриптов для фишинговых атак. Перечислим основные области использования ИИ хакерами.

Поиск уязвимостей

Автоматизация сканирования уязвимостей (CVE) в программном обеспечении позволяет ускорить нахождение и эксплуатацию этих уязвимостей. То, на что раньше злоумышленники на основе ручного поиска тратили долгие часы и дни, теперь может занимать считанные минуты, если хакеры берут на вооружение модели машинного обучения, средства разведки и инструменты генерации эксплойтов. Средства ИИ помогают киберпреступникам не только быстро находить незакрытые уязвимости ПО, но и выявлять устаревшие программы и обнаруживать изъяны в конфигурациях.

По данным Ponemon Institute, 54% специалистов по кибербезопасности считают незакрытые уязвимости главной проблемой в эпоху атак с использованием ИИ.

Генерация полезной нагрузки

В последние несколько лет хакерское сообщество получило ряд специализированных ИИ-инструментов, созданных на основе больших языковых моделей. Речь идет про такие чат-боты, как HackerGPT и WormGPT, которые помогают киберпреступникам создавать вредоносное ПО с хорошими возможностями маскировки, автоматизацией обхода систем защиты и функциями преобразования скриптов в исполняемые файлы. Такое ПО все чаще служит в атаках с использованием ИИ-агентов, где генеративные модели принимают решения автономно, без участия человека.

Фишинговые атаки и социальная инженерия

Используя инструменты ИИ, хакеры создают фишинговые письма, отличающиеся высоким уровнем убедительности, а также пишут скрипты для общения с жертвами. Еще одно направление — генерация дипфейков для более эффективного манипулирования выбранными целями атак.

Разведка и планирование атак

Средства искусственного интеллекта позволяют злоумышленникам быстрее находить цели, создавать схемы инфраструктуры компаний-жертв и выявлять в них уязвимости.

Атаки без участия человека

На сегодня можно выделить два субъекта кибератак с использованием искусственного интеллекта: хакеры, применяющие ИИ, а также ИИ-агенты.

В первом случаи атаки полностью совершаются с участием людей, ИИ в таких случаях служит для автоматизации, оптимизации и масштабирования киберпреступлений.

Во втором случае используются автономные хакерские агенты — рабочие процессы, управляемые ИИ. После запуска они способны действовать самостоятельно, реализуя многоэтапные атаки более эффективно, чем в ручном режиме. Агенты ИИ самостоятельно принимают решения, объединяют задачи и требуют лишь минимального контроля. Таким образом атаки совершаются в полуавтоматическом режиме, с минимальным участием человека.

Компания Anthropic, создатель больших языковых моделей, в ноябре 2025 года выяснила, что китайские хакеры использовали ее ИИ-технологии для проведения автоматизированных кибератак на технологические компании. Согласно отчету Anthropic, для написания кода злоумышленники взяли ее ИИ-агент Claude Code. При этом атаки практически полностью совершались в автоматическом режиме, то есть при минимальном участии человека. Компания уточнила, что на долю операторов-людей приходилось только 10–20% работы, необходимой для проведения хакерских операций. Anthropic заявляет, что всего пострадали 30 организаций, но не раскрывает их названия.

В феврале 2025 года компания OpenAI заявила, что обнаружила доказательства создания китайскими спецслужбами инструмента на основе искусственного интеллекта для сбора информации об антикитайских публикациях в социальных сетях западных стран.


Использование LLM в рамках жизненного цикла кибератак

  • Изучение потенциальных целей и автоматизация разведки.
  • Написание вредоносных скриптов или полиморфного вредоносного ПО (меняющего свой код при каждом новом заражении).
  • Создание фишингового контента или аудио-дипфейков.
  • Оптимизация кибератак в режиме реального времени, чтобы избежать обнаружения.
  • Принятие стратегических решений о доставке вредоносных средств или сохранении полезной нагрузки.
Источник: OPSWAT

ИИ меняет ландшафт угроз​

Использование средств искусственного интеллекта буквально с калейдоскопической скоростью меняет набор угроз, стоящих перед организацией.

Во-первых, проведение атак «демократизировалось», порог входа в хакерское сообщество существенно понизился: то, что раньше требовало экспертных знаний, хорошей математической подготовки и большого опыта, теперь доступно с помощью простых подсказок и путем выполнения несложных действий — буквально в несколько кликов мыши. Применяя LLM на основе открытого исходного кода, хакеры могут оптимизировать атаки и запускать их отовсюду, где есть локальные вычислительные мощности.

Во-вторых, у киберпреступников появились более широкие возможности для обхода блокировок. Созданное с помощью ИИ вредоносное ПО, как правило, сложнее выявить средствами статического детектирования, с помощью «песочниц» и даже с привлечением динамического анализа.

В-третьих, ИИ способствует распространению моделей типа «Вредоносное ПО как услуга» и «Вирус-вымогатель как услуга» (MaaS, RaaS). Хакеры используют ИИ для быстрого создания наборов вредоносных инструментов, распространяемых по подписке. Это не только позволяет вовлечь в хакерское сообщество много новых участников, но и упрощает запуск масштабных атак.

Сравнение традиционных кибератак и взломов с использованием ИИ

Средства искусственного интеллекта дают злоумышленникам мощные возможности по автоматизации, оптимизации и масштабированию компьютерных атак. В отличие от традиционных взломов, которые основаны на ручном написании скриптов, требуют хороших технических знаний и больших временных затрат, кибератаки с использованием средств ИИ имеют фундаментальные отличия в скорости, адаптивности и доступности.

В приведенной ниже таблице обозначена разница аспектов при традиционных кибератаках и взломах с использованием ИИ.

Аспект
Традиционные кибератаки
Кибератаки с ИИ
Скорость​
Медленная реализация, требуется ручное написание скриптов.​
Почти мгновенное выполнение благодаря средствам автоматизации.​
Требования к квалификации​
Высокие; требуется глубокая техническая экспертиза.​
Невысокие, во многом основанные на подсказках; низкий порог входа для хакеров, но требуется доступ к модели и настройкам.​
Масштабируемость​
Ограничена наличием времени и человеческих ресурсов.​
Высокая — поддерживаются многоэтапные атаки на множество целей.​
Адаптируемость​
Жесткие или слабо адаптируемые сценарии.​
Динамичная — ИИ корректирует полезную нагрузку и способы уклонения от средств обнаружения.​
Векторы атак​
Вредоносное ПО, фишинг, разведка ручными методами и эксплойты.​
LLM, дипфейки, классификаторы моделей атак, автономные ИИ-агенты.​
Ограничения​
Использование ИИ может иметь непредсказуемые последствия; без человеческого контроля такие атаки не имеют целей и контекста.​
Больше возможностей стратегического контроля, но атаки более медленные и реализуются вручную.​
Источник: OPSWAT

Как госорганам и бизнесу защититься от ИИ-кибератак​

Несмотря на значительный рост уровня угроз, связанных с искусственным интеллектом, только 37% мировых организаций заявляют о готовности отразить кибератаки с использованием ИИ, отмечают авторы исследования Ponemon Institute “State of AI Cybersecurity Report”. Многие компании недооценивают опасность ИИ-угроз, полагаются на устаревшие планы управления киберрисками и продолжают следовать реактивным стратегиям обнаружения угроз. В то же время ряд специалистов по ИБ говорят о том, что мир уже стоит на пороге сингулярности в плане кибербезопасности ИИ, то есть технологический уровень средств искусственного интеллекта в атаках уже таков, что вскоре мир окажется не способен найти эффективных решений против атак без участия человека и других изощренных методов.

Чтобы обеспечить максимальные возможности для отражения кибератак, основанных на средствах искусственного интеллекта, компаниям важно не просто научиться выявлять подобные инциденты, а обеспечить многоуровневые системы защиты. Они должны быть основаны на многоуровневой стратегии, включающей использование автоматизированных средств в сочетании с человеческим интеллектом, а также инструменты предотвращения и обнаружения угроз.

В рамках построения систем защиты полезно провести тестирование безопасности с помощью независимых специалистов. Это поможет определить, насколько компания готова к отражению атак, в ходе которых хакеры используют LLM, широко используют ИИ-подсказки и применяют обход классификаторов. Такое тестирование позволяет выявить изъяны в системах защиты на основе ИИ до того, как это сделают злоумышленники.

Тестирование безопасности ИИ-систем также включает:

  • Фаззинг моделей — метод выявления рисков инъекции подсказок;
  • Оценку обработки большими языковыми моделями входных данных;
  • Тестирование устойчивости классификатов к модели уклонения перед средствами обнаружения.
В последнее время руководители служб ИБ также начали активно проверять собственные LLM на предмет утечек подсказок, некорректной работы или непреднамеренного доступа к внутренней логике, что является критически важным шагом на пути внедрения генеративного ИИ в продукты и рабочие процессы.

Многоуровневая умная защита

Ввязываться в соревнование «ИИ против ИИ» компаниям весьма рискованно. В этой битве можно быстро проиграть. Целесообразно не ввязываться в открытую борьбу, а организовать интеллектуальную многоуровневую систему защиты от атак, основанных на использовании средств искусственного интеллекта. Важно обеспечивать проактивные методы.

Среди них можно выделить:

  • Многоступенчатое сканирование: файлы необходимо проверять через несколько антивирусных ядер для более надежного обнаружения угроз, которые могут быть пропущены одноядерными системами.
  • Отправка в «песочницу»: анализ файлов в изолированных средах с целью эффективного обнаружения данных, созданных с помощью ИИ и содержащих вредоносное ПО. Как правило, вирусы практически невозможно выявить статическими методами.
  • Глубокий CDR (Content Disarm & Reconstruction): средство для удаления потенциально вредоносных элементов из файлов с последующим воссозданием безопасной версии контента. В отличие от традиционных антивирусов, ориентированных на поиск только известных угроз, решения CDR основаны на принципе «нулевого доверия» к контенту — система считает все файлы потенциально вредоносными и тщательно проверяет содержимое. CDR-стек информационной безопасности разработан специально для противодействия вредоносному ПО, которое генерируется средствами ИИ и отличается непредсказуемостью.

Реальные примеры использования ИИ в кибербезопасности​

В таблице ниже перечислены основные варианты использования искусственного интеллекта в кибербезопасности, каждый из которых сопровождается реальным примером, демонстрирующим эффект от применения того или иного решения на основе ИИ.

Направление использования ИИ
Компания (проект)
Страна, отрасль
Эффект/результат
Выявление хакерских угроз и мониторинг аномальной активности в сети​
Aviso​
Канада, финансовые услуги​
73 мгновенных предупреждения об угрозах; расследовано 23 млн событий ИБ.​
Обнаружение вредоносного ПО, предотвращение его распространения​
CordenPharma​
Германия, фармацевтическая промышленность​
Выявление и блокировка криптомайнера; предотвращена утечка более 1 ГБ данных.​
Предотвращение взлома учетных записей и защита персональных данных​
Global Bank​
США, финансовые услуги​
Количество фишинговых атак с захватом учетных записей (ATO) удалось сократить на 65%.​
Выявление внутренних угроз​
Golomt Bank​
Монголия, финансовые услуги​
Сокращение ложных срабатываний на 60%, сокращение времени расследования инцидентов на 40%;
количество оповещений сократилось от 1500 до менее 200 в день.​
Безопасность Интернета вещей и операционных технологий​
Создание умного города​
Неизвестно, строительство и управление городскими территориями​
Точность выявления аномалий 96–97%; децентрализованная система обнаружения угроз; реагирование на инциденты в режиме реального времени менее чем за 30 секунд.​
ИИ-система реагирования на инциденты и автоматизация центра управления кибербезопасностью (SOC)​
DXC Technology​
США, ИТ и консалтинг​
Сокращение количества оповещений на 60%; ускорение реагирования на 50%; сокращение ручной обработки данных.​
Борьба с перегрузкой оповещений​
Банк​
Одно из государств Персидского залива, финансовые услуги​
Сокращение количества оповещений и ложных срабатываний; повышение эффективности SOC.​
Аналитика угроз и проактивная защита​
IBM​
США, ИТ​
Проактивное обнаружение угроз;
ранние пре​
Безопасность электронной почты и предотвращение фишинга​
Google​
США, ИТ​
Миллионы фишинговых писем в сервисе Gmail ежедневно блокируются с помощью моделей машинного обучения​
Модерация контента и выявление угроз в социальных сетях​
Facebook*​
США, ИТ​
Обнаружение вредоносного контента в режиме реального времени; улучшенный анализ трендов.​
Выявление финансового мошенничества​
Visa​
США, финансовые услуги (платежные сервисы)​
Оценка рисков и аномалий в транзакциях за миллисекунды. В 2023 году предотвращено 80 млн мошеннических транзакций на сумму 40 млрд долларов.​
Выявление аномалий в массивах финансовых данных​
Capital One​
США, финансовые услуги​
Классификация конфиденциальных данных; автоматическое выявление рисков.​
Управление уязвимостями и приоритизация исправлений​
Государственное агентство​
США, государственные организации​
Снижение количества фишинговых инцидентов на 90%;
снижение рабочей нагрузки на 50%; автоматические исправления и контроль соответствия требованиям.​
Источник: AIMultiple

*Facebook признана экстремистской организацией в России


Таким образом, средства искусственного интеллекта становятся все более грозным и непредсказуемым оружием в руках киберпреступников. При этом запуск атак на основе моделей ИИ не требует высокой квалификации от злоумышленников. Противостоять подобным взломам государственные органы и бизнес могут только путем выстраивания многоступенчатых систем защиты, где искусственный интеллект позволяет не только тщательно отслеживать уязвимости, но и проводить глубокий анализ данных. И одной из ключевых идей для дискуссий является возможность построения эффективной системы защиты информации (подсистемы ИБ) без применения ИИ. Но критерием здесь будет служить практика, статистика инцидентов и расследования их причин в 2026–27 гг.

Источник
 
  • Теги
    ии информационная безопасность искусственный интеллект
  • Назад
    Сверху Снизу