Злоумышленники переключили внимание на уязвимости в искусственном интеллекте и системах машинного обучения, используемых в банковском секторе, предупреждают эксперты.
По выявленным данным, киберпреступники разрабатывают новые подходы для обхода защитных механизмов таких решений с целью компрометации данных клиентов, нарушения работы сервисов и получения финансовой выгоды.
Аналитики отмечают, что хотя ИИ и машинное обучение становятся всё более распространёнными в банковской сфере, например, для обнаружения мошеннических транзакций, оценки кредитного риска или автоматизации клиентской поддержки - эти технологии открывают новые варианты для атак, если используются без достаточных мер кибербезопасности.
Другой вектор атак - эксплуатация слабых мест в API и интеграционных интерфейсах ИИ-систем. Неавторизованные запросы, недостаточная изоляция сервисов и ошибки валидации вводимых данных дают злоумышленникам возможности для обхода логики моделей и получения доступа к внутренним компонентам инфраструктуры.
Эксперты подчёркивают, что угрозы ИИ-системам банков отличаются от классических атак на веб-приложения или сети: они нацелены на манипулирование поведением самих моделей и могут не сразу проявлять себя как очевидные инциденты. Это требует от служб безопасности новых подходов к мониторингу, тестированию устойчивости моделей и защите данных, участвующих в обучении.
Для противодействия таким атакам специалисты рекомендуют банкам внедрять комплексные меры: строгую сегментацию инфраструктуры, проверку целостности и источников данных для обучения, регулярное тестирование моделей на устойчивость к вредоносным вмешательствам, а также аудит API-интерфейсов и логики обработки запросов.
Источник
По выявленным данным, киберпреступники разрабатывают новые подходы для обхода защитных механизмов таких решений с целью компрометации данных клиентов, нарушения работы сервисов и получения финансовой выгоды.
Аналитики отмечают, что хотя ИИ и машинное обучение становятся всё более распространёнными в банковской сфере, например, для обнаружения мошеннических транзакций, оценки кредитного риска или автоматизации клиентской поддержки - эти технологии открывают новые варианты для атак, если используются без достаточных мер кибербезопасности.
Одним из ключевых рисков специалисты называют возможность «отравления данных» (data poisoning), когда злоумышленники целенаправленно вводят в обучающие выборки ложные или манипулированные данные. Это может искажать результаты модели ИИ, снижать точность обнаружения аномалий или приводить к ложным решениям по проверке транзакций.
Другой вектор атак - эксплуатация слабых мест в API и интеграционных интерфейсах ИИ-систем. Неавторизованные запросы, недостаточная изоляция сервисов и ошибки валидации вводимых данных дают злоумышленникам возможности для обхода логики моделей и получения доступа к внутренним компонентам инфраструктуры.
Эксперты подчёркивают, что угрозы ИИ-системам банков отличаются от классических атак на веб-приложения или сети: они нацелены на манипулирование поведением самих моделей и могут не сразу проявлять себя как очевидные инциденты. Это требует от служб безопасности новых подходов к мониторингу, тестированию устойчивости моделей и защите данных, участвующих в обучении.
Для противодействия таким атакам специалисты рекомендуют банкам внедрять комплексные меры: строгую сегментацию инфраструктуры, проверку целостности и источников данных для обучения, регулярное тестирование моделей на устойчивость к вредоносным вмешательствам, а также аудит API-интерфейсов и логики обработки запросов.
Источник







