ФСТЭК России впервые внесла угрозы, связанные с искусственным интеллектом, в Банк данных угроз безопасности информации.
Речь идет о формализации рисков, возникающих при разработке, обучении и эксплуатации ИИ-систем, включая генеративные модели.
В обновленном перечне описаны сценарии атак, характерные именно для ИИ. Среди них манипуляции промптами и шаблонами запросов, вмешательство в конфигурации ИИ-агентов, компрометация обучающих данных, а также попытки вызвать отказ в обслуживании ИИ-сервисов. Отдельно отмечаются риски утечки чувствительной информации и нарушения целостности моделей.
Регулятор указывает, что подобные угрозы могут затрагивать как государственные информационные системы, так и объекты критической информационной инфраструктуры. Включение ИИ-угроз в БДУ означает, что они подлежат обязательному учету при моделировании угроз и проектировании систем защиты.
По данным отрасли, сформированный перечень станет основой для будущего стандарта по безопасной разработке и внедрению ИИ. Его обсуждение планируется до конца 2025 года. Ожидается, что новые требования усилят контроль за использованием ИИ в государственных и корпоративных системах на фоне роста числа инцидентов и усложнения атак.
Источник
Речь идет о формализации рисков, возникающих при разработке, обучении и эксплуатации ИИ-систем, включая генеративные модели.
В обновленном перечне описаны сценарии атак, характерные именно для ИИ. Среди них манипуляции промптами и шаблонами запросов, вмешательство в конфигурации ИИ-агентов, компрометация обучающих данных, а также попытки вызвать отказ в обслуживании ИИ-сервисов. Отдельно отмечаются риски утечки чувствительной информации и нарушения целостности моделей.
Регулятор указывает, что подобные угрозы могут затрагивать как государственные информационные системы, так и объекты критической информационной инфраструктуры. Включение ИИ-угроз в БДУ означает, что они подлежат обязательному учету при моделировании угроз и проектировании систем защиты.
По данным отрасли, сформированный перечень станет основой для будущего стандарта по безопасной разработке и внедрению ИИ. Его обсуждение планируется до конца 2025 года. Ожидается, что новые требования усилят контроль за использованием ИИ в государственных и корпоративных системах на фоне роста числа инцидентов и усложнения атак.
Источник






