Нейросети для взлома: как искусственный интеллект стал оружием хакеров

BOOX

Стаж на ФС с 2012 года
Команда форума
Служба безопасности
Private Club
Регистрация
23/1/18
Сообщения
36.626
Репутация
13.555
Реакции
67.291
USD
0
2025 год можно называть годом ИИ: каждое обновление нейросетей все больше впечатляет, растет количество сценариев, где они получают применение.

Кибербезопасность — не исключение, и здесь в зависимости от ракурса ситуация может показаться и тревожной, и воодушевляющей.

Период «кустарных» атак уходит в прошлое. На смену ему приходит эра автоматизированных, адаптивных и целевых операций. Злоумышленники больше не полагаются лишь на стандартный набор утилит и ручной труд. Они делегируют сложнейшие задачи — от социальной инженерии до создания вредоносного кода — алгоритмам, способным учиться, эволюционировать и подстраиваться под среду.

1b6tqnrv4w81ssteaah9nwry3x7bs0g8.jpg


Атаки, на подготовку которых уходили недели, теперь могут быть запущены за часы. Угрозы становятся настолько персонализированными и нетипичными, что традиционные методы защиты часто видят в них просто «белый шум».

Специалисты по информационной безопасности тоже используют ИИ-арсенал, чтобы отражать новые угрозы. Продвинутый поведенческий анализ, умные SIEM и прочие похожие инструменты все больше входят в практику. Эксперты отрасли рассказали Cyber Media, как именно ИИ перекраивает ландшафт киберугроз.

ИИ как золотая пуля

Стремительное появление ИИ в инструментарии злоумышленников — это закономерный результат того, как эти технологии идеально ложатся на задачи кибератак. Они становятся «мультипликатором силы», превращая рядового хакера в оператора масштабной киберкампании.

Главный фактор — это скорость и масштабируемость. ИИ автоматизирует трудоемкие процессы, которые раньше требовали от человека напряженной многочасовой работы. Теперь алгоритмы делают ее в сотни раз быстрее.

Классические атаки ограничены временем, ресурсами и уровнем знаний атакующего. Зачастую данный подход требует ручной подготовки: написания письма, поиска уязвимостей, тестирования эксплоита. Кроме того, реализация атак зависит от человеческого фактора: ошибок, стиля письма и уровня настойчивости злоумышленников. При этом человек может провести как хорошо подготовленную целевую атаку, так и массовый спам с низкой конверсией. Автоматизированный же подход отличается наличием широкого пула возможностей.

Появляются системы способные за часы просканировать миллионы портов, провести интеллектуальный брутфорс, адаптируя словари паролей под жертву, автоматически протестировать тысячи веб-приложений на известные уязвимости. Определив оптимальную жертву, злоумышленники могут перейти к точечным ударам.

Второе важное свойство современного ИИ — адаптивность. Это позволяет нейросетям обходить традиционные статичные методы обнаружения (например, сигнатурный анализ). ИИ-атака динамична: алгоритм может в реальном времени менять тактику.

Если система обнаружения вторжений (IDS) блокирует определенный шаблон трафика, ИИ-зловред методом проб и ошибок найдет обходной путь, изменит сигнатуру вредоносного кода или способ коммуникации с командным сервером. Сама атака при этом будет продолжаться, и оператору зловреда подключаться не обязательно.

Например, в августе 2025 года был обнаружен экспериментальный PromptLock — первый вирус на базе ИИ, использующий локальную языковую модель (gpt-oss-20b) для генерации вредоносных скриптов, сканирования, шифрования и потенциального удаления данных. Также ИИ активно применяется для автоматизации фишинга, включая дипфейки и персонализированные письма, поиска уязвимостей в коде и генерации эксплойтов, специалисты используют его на играх CTF по информационной безопасности.

Все это в комплексе составляет главное Орудие ИИ: сочетание широкого охвата с прицельными атаками. Вместо того чтобы рассылать сотрудникам уведомления «о подозрительной активности в вашем аккаунте», злоумышленник поручает ИИ собрать досье на финансового директора. Нейросеть анализирует его выступления, находит упоминания о ключевых контрагентах и текущих сделках и генерирует персональное письмо с идеально правдоподобным предлогом для срочного перевода средств.

Комбинация этих качеств и превращает ИИ в стратегического противника для служб безопасности, который использует вроде бы те же инструменты, что и раньше, но по-новому.

Арсенал киберзлодея

Эти теоретические преимущества ИИ уже воплотились в конкретных, работающих методиках. Продвинутые кибератаки, которые раньше встречались разве что в особо сложных сценариях, теперь касаются и простых пользователей.

Социальная инженерия нового поколения. Фишинговые письма больше не вычислить по корявым формулировкам и грамматическим ошибкам. Современные языковые модели мгновенно пишут безупречные, стилистически и грамматически правильные тексты, которые еще и подстраиваются под стиль коллеги или начальника. А при необходимости таких текстов можно составить хоть сотню — для разных отделов компании, с разным подбором формулировок, подстраиваясь под корпоративный жаргон и текущий рабочий контекст (например, используя данные о реальных проектах с сайта).

ИИ часто используют для сбора информации о жертве, и здесь нет ограничения по глубине поиска. Помимо ФИО, адреса, посещаемых мест, хобби и т.д. можно с помощью ИИ выявить привычки и предпочтения. Далее эта информация позволит сгенерировать очень качественное фишинговое письмо или сообщение в мессенджере. А затем атакующий может использовать ИИ для поиска и эксплуатации уязвимостей конкретного корпоративного актива.

Но текст — лишь начало, а дальше злоумышленники переходят к , чтобы в реальном времени имитировать голос руководителя для телефонного звонка в отдел финансов или технической поддержки. Гипертаргетированный фишинг, который раньше встречался в целевых атаках, превращается в массовую угрозу, которую невозможно остановить простым обучением сотрудников.

Хотя Darktrace не может однозначно подтвердить использование ИИ во всех случаях. Лишь косвенные признаки, например, резкий рост числа писем и изменения в их структуре, указывают на активное применение подобных инструментов. С января по май 2025 года системы Darktrace обнаружили более 12,6 млн вредоносных электронных писем. При этом 25% всех фишинговых атак были целенаправленно нацелены на VIP-пользователей.

Умный брутфорс. ИИ делает атаки на учетные записи умными и незаметными. Вместо примитивного перебора по общему словарю нейросеть использует утекшие базы данных, выявляет паттерны в создании паролей конкретными людьми или внутри определенных организаций. Затем на этой базе подбираются высоковероятные комбинации, что резко повышает эффективность подбора.

Идеальный вариант для атак — это симбиоз: агент работает под контролем человека. Тогда он становится мощным инструментом. То, что раньше приходилось часами искать в каком-нибудь поисковике, теперь достается из памяти агента за секунды. В итоге даже неспециалист получает в руки инструменты для взлома.

Пока что полная автоматизация атаки с использованием ИИ остается лишь теорией. Также на данный момент отсутствуют вредоносные инструменты на базе ИИ, которые самостоятельно адаптируются под изменение окружающей среды в информационной системе. В атаках все еще участвуют люди или операторы. ИИ лишь средство, которое ускоряет, удешевляет и упрощает проведение атак на различных стадиях.

Умные алгоритмы могут методом проб и ошибок определить политику паролей компании (например, «минимум 8 символов, заглавная буква и цифра») и адаптировать под нее словарь для атаки. А системы на базе компьютерного зрения обходят классические CAPTCHA, анализируя искажения и зашумленность изображений.

Создание вредоносного ПО. Нейросети могут генерировать полиморфный и метаморфный код, который автоматически меняет сигнатуру с каждой новой жертвой. Это делает практически бесполезным анализ, который до сих пор лежит в основе многих антивирусных продуктов.

Уже сегодня ИИ (например, ChatGPT) может генерировать простые эксплойты и советовать по их улучшению. ИИ уже сегодня способен генерировать код для эксплойтов, анализируя огромные массивы данных (включая открытый код в интернете), но качество такого кода часто оставляет желать лучшего. Он может быть грязным, избыточным или содержать ошибки. Эксперты называют это явление «навайбкодинг» (от англ. AI-generated code или naive AI coding), когда ИИ быстро создает рабочие, но неоптимизированные и потенциально уязвимые решения. Разработчику приходится тратить время на «чистку» и доработку такого кода, чтобы он стал безопасным и эффективным.

Успех ML-агентов — около 10%, они нестабильны и далеки от уровня разработчика, по моему мнению. Но со временем появятся узкоспециализированные модели именно для взлома. Думаю, это вопрос не «если», а «когда»: все зависит от того, какие ресурсы и компании вложатся в такие разработки. И тогда ситуация на рынке киберугроз изменится очень заметно.

Еще более пугающей выглядит перспектива использования ИИ для автоматического поиска уязвимостей. Алгоритмы уже способны анализировать исходный код или бинарные файлы, находить потенциально уязвимые места (например, ошибки переполнения буфера) и даже генерировать работающий эксплойт.

Эволюционные атаки (adversarial ML). Это, пожалуй, самый изощренный сценарий, где ИИ атакует системы защиты, также построенные на ИИ. Методом «враждебного машинного обучения» злоумышленники учатся обманывать модели классификации.

Классический пример не из мира ИБ: если нанести на дорожный знак почти невидимые для человека помехи, система беспилотного автомобиля «увидит» не «стоп», а «ограничение скорости». В контексте кибербезопасности этот же метод построен на внесении в исполняемый файл или документ минимальных, не влияющих на функциональность изменения. Для человека файл остается прежним, а ИИ-модель системы защиты с высокой долей вероятности классифицирует его как «безопасный».

Скачиваешь «безопасные» pickle- или hdf5-файлы — а там уязвимость. Это уже реальность. Были случаи, когда вирусы использовали ML-агентов на компьютере, но это скорее экзотика. А вот полный захват систем через ИИ — это пока миф, считаю.

Хотя этические нормы, заложенные в ИИ, не позволяют ему создавать вредоносные инструменты, злоумышленники выстраивают свои запросы так, чтобы модель ничего не заподозрила. Например, просят LLM написать лишь часть кода. Кроме того, преступники используют «злые» аналоги ChatGPT, которые ориентированы на методы взлома, поиск уязвимостей и другие задачи, которые реализуют злоумышленники.

Это лишний раз доказывает, что текущих фильтров на стороне языковых моделей недостаточно для блокировки вредоносных запросов. А введение более жестких фильтров сильно ограничит функциональность языковых моделей.

Можно привести и другие примеры вредоносного применения ИИ. Но из этих кейсов понятно, что злоумышленники не просто используют ИИ — они интегрируют его в полный жизненный цикл атаки, от разведки до эксплуатации и сокрытия следов, что требует адекватного и столь же технологичного ответа от защищающейся стороны.

ИИ со знаком плюс

К счастью, стороны защиты получает те же технологические преимущества, что и злоумышленники. Специалисты по информационной безопасности интегрируют технологии на базе ИИ в работу, превращая хаос данных в поток событий, а белый шум — в понятную панораму.

Там, где сигнатурные методы бессильны против новых и неизвестных атак, в дело вступают системы поведенческого анализа (UEBA). Они учатся понимать нормальное поведение каждого пользователя, устройства и приложения в сети, и мгновенно отмечают любые отклонения. Попытка доступа к данным в нерабочее время, аномально большой объем исходящего трафика или нестандартная последовательность действий — все это триггеры для немедленного расследования.

Уставшим SOC-командам надежду возвращают средства автоматизации и продвинутого анализа. Платформы безопасности класса SOAR, усиленные ИИ, позволяют выстраивать из разрозненных алертов связанные цепочки инцидентов и автоматически запускать сценарии реагирования. Например, при обнаружении подозрительного файла система может самостоятельно изолировать зараженный узел от сети, заблокировать потенциально скомпрометированную учетную запись и создать тикет для аналитиков, где уже будет весь необходимый контекст.

Современные SIEM-системы тоже эволюционируют. Теперь они не просто гигантские сборщики логов, а интеллектуальные аналитические платформы. С помощью машинного обучения они могут коррелировать события из десятков разных источников, выявляя сложные многоэтапные атаки, которые человек просто не в состоянии увидеть вручную.

Важно понимать: сама по себе ИИ-революция не создала новых уязвимостей, она лишь ускорила и улучшила эксплуатацию старых. Специалисту нужно уметь анализировать модели перед загрузкой, тестировать их в изолированной среде, а при работе с ML-агентами — осознанно давать им права на своих системах, понимая возможные риски. Нужно придерживаться стандартных практик безопасности и обязательно разработать для компании чек-лист по ИИ-безопасности с правильными акцентами.

Наконец, идет напряженная борьба с враждебным машинным обучением (Adversarial ML). Исследователи и вендоры разрабатывают методы «закалки» своих моделей ИИ против подобных атак: специальное обучение на примерах с помехами, чтобы научить систему распознавать манипуляции, а также комплексные проверки, где решение о безопасности файла принимает целый ансамбль алгоритмов.

Таким образом, ИИ в защите позволяет укрепить проактивную модель безопасности, к которой пришли компании за последние годы. Гонка вооружений продолжается, а скорости реагирования приближаются к реальному времени.

Что дальше

Понятно одно: ИИ никуда не исчезнет. Полностью автономные кибератаки, где ИИ самостоятельно проводит разведку, выбирает цель, эксплуатирует уязвимость и скрывает следы, с каждым месяцем становятся все реальнее. Это потребует столь же автоматизированных систем защиты, способных принимать решения без участия человека.

Еще один тревожный тренд, который рынок уже видел с шифровальщиками, — коммерциализация угроз. Услуги «ИИ-как-услуга» (AI-as-a-Service) уже появляются в даркнете, позволяя даже технически неподготовленным злоумышленникам арендовать мощные нейросети для проведения сложных атак.

Все это ведет к неизбежной эскалации гонки вооружений «ИИ-атака» против «ИИ-защита». Компаниям необходимо инвестировать в средства поведенческого анализа, чтобы идти в ногу с угрозами. Сотрудники должны не просто знать про фишинг, но и понимать, как он теперь выглядит с усилением ИИ. Выбор решений в области защиты (SOAR, SIEM, NDR) в ближайшее время будет склоняться в пользу систем с машинным обучением в ядре своей функциональности.

Наконец, атаки нейросетей окончательно помещают подход Zero Trust во главу угла. Непрерывная проверка подлинности и авторизации каждого пользователя и устройства сводит на нет многие преимущества умных, но неавторизованных атакующих алгоритмов.

ИИ дал злоумышленникам новое Орудие. Но он же предоставил защитникам шанс превратить безопасность в управляемый, предсказуемый и автоматизированный процесс.


 
  • Теги
    нейросети
  • Назад
    Сверху Снизу