Федеральная служба по техническому и экспортному контролю впервые включила риски, связанные с использованием искусственного интеллекта, в банк данных угроз информационной безопасности. Новый раздел станет обязательной основой для моделирования угроз при разработке программного обеспечения для государственных систем и объектов критической инфраструктуры.
В перечень вошли уязвимости, характерные для ИИ-технологий: модели машинного обучения, обучающие датасеты, RAG-подходы и механизмы адаптации больших языковых моделей. Как отмечает руководитель направления по взаимодействию с регуляторами Swordfish Security, член профильных рабочих групп Альбина Аскерова, появление ИИ-угроз в банке данных ФСТЭК — важный сигнал для рынка.
«ИИ уже активно используется в бизнесе, но политики и процессы безопасности часто не успевают за темпами внедрения технологий. Новый раздел БДУ фиксирует реальные риски и показывает, что защита ИИ-систем переходит в практическую плоскость регулирования», подчеркнула Альбина.
По её словам, совместное исследование с АФТ показывает, что порядка 25% финтех-организаций уже сталкивалась с инцидентами, связанными с применением ИИ. Включение таких угроз в официальный перечень должно ускорить развитие практик безопасной разработки и эксплуатации ИИ, особенно в чувствительных отраслях.
Подробнее на сайте
В перечень вошли уязвимости, характерные для ИИ-технологий: модели машинного обучения, обучающие датасеты, RAG-подходы и механизмы адаптации больших языковых моделей. Как отмечает руководитель направления по взаимодействию с регуляторами Swordfish Security, член профильных рабочих групп Альбина Аскерова, появление ИИ-угроз в банке данных ФСТЭК — важный сигнал для рынка.
«ИИ уже активно используется в бизнесе, но политики и процессы безопасности часто не успевают за темпами внедрения технологий. Новый раздел БДУ фиксирует реальные риски и показывает, что защита ИИ-систем переходит в практическую плоскость регулирования», подчеркнула Альбина.
По её словам, совместное исследование с АФТ показывает, что порядка 25% финтех-организаций уже сталкивалась с инцидентами, связанными с применением ИИ. Включение таких угроз в официальный перечень должно ускорить развитие практик безопасной разработки и эксплуатации ИИ, особенно в чувствительных отраслях.
Подробнее на сайте