Статьи

Обзор нормативно-правовой базы РФ регулирования ИИ и международного опыта

2026-03-03 20:29
Регулирование искусственного интеллекта (ИИ) находится в центре глобальной повестки. Россия, пройдя этап стратегического целеполагания, вступает в новую фазу активного внедрения и формирования собственной модели, которая призвана обеспечить технологический суверенитет и стимулировать развитие экономики. Ключевым событием, знаменующим этот переход, стало создание Комиссии при Президенте РФ по вопросам развития технологий искусственного интеллекта (Указ № 116 от 26 февраля 2026 г.). Данный отчет представляет целостную картину российского подхода, включая анализ этого нового органа, в сравнении с основными мировыми регуляторными моделями.

Обзор нормативной правовой базы регулирования применения и безопасности ИИ в России

Российская система регулирования ИИ формируется эволюционно, сочетая стратегические документы, "гибкое регулирование" и точечные законодательные изменения.

Стратегический фундамент
Документ
Дата
Основное содержание и роль
Национальная стратегия развития ИИ до 2030 года (Указ Президента РФ № 490)
2019 (актуализация в 2024)
Базовый документ, определяющий принципы, цели и приоритеты. В новой редакции сделан акцент на технологическом суверенитете и стандартизации.
Концепция развития регулирования отношений в сфере технологий ИИ и робототехники до 2024 года (Распоряжение Правительства РФ № 2129-р)
2020
Концепция заложила подходы к регулированию, включая ключевой инструмент – экспериментальные правовые режимы (ЭПР), позволяющие тестировать инновации в "регуляторных песочницах".
Национальный проект "Экономика данных и цифровая трансформация государства" (включает ФП "Искусственный интеллект")
2025
Обеспечивает меры господдержки и финансирования конкретных проектов по разработке и внедрению ИИ.
Приказ ФСТЭК № 117 (Требования о защите информации, содержащейся в государственных информационных системах, иных информационных системах государственных органов, государственных унитарных предприятий, государственных учреждений)
2025
Документ содержит первые в России формализованные требования к безопасности ИИ при использовании этой технологии в системах государственных организаций. Среди требований предусмотрена защита не только инфраструктуры, но и данных, моделей, параметров, процессов.
Перечень поручений Президента РФ по итогам конференции "Путешествие в мир искусственного интеллекта" (№ Пр-22)
2026
Задает новую фазу регулирования: форсированное внедрение, технологический суверенитет, разработка Национального плана внедрения, развитие инфраструктуры ЦОДов, экспорт технологий.
Также в России функционирует Технический комитет № 164 «Искусственный интеллект», который создан с целью повышения эффективности стандартизации в области искусственного интеллекта на национальном и международном уровнях (приказ Росстандарта от 25.07.2019 № 1732). Комитетом разработаны различные отраслевые стандарты применения ИИ, учитывающие специфику конкретной отрасли (отрасли транспорта, промышленности, здравоохранения, образования и т.д.).

Ключевые регуляторные механизмы

  • Ответственность за применение ИИ: Российское право исходит из того, что ИИ является инструментом. Ответственность за вред, причиненный с использованием ИИ, несут физические или юридические лица (разработчик, правообладатель, пользователь).
  • Интеллектуальная собственность: Объекты, созданные исключительно ИИ, не охраняются авторским правом. Защита возможна только при наличии творческого вклада человека.
  • Защита персональных данных: Применение ИИ подпадает под требования Федерального закона от 27.07.2006 № 152-ФЗ «О персональных данных» (согласие, локализация данных в РФ, обезличивание).
Отраслевое регулирование: передовые подходы

Наиболее конкретные нормы в настоящий момент формируются на уровне отраслевых регуляторов, демонстрируя гибкость общего подхода.

  • Отрасль здравоохранения (Минздрав России)самая регулируемая сфера из пилотных:
  1. Этический кодекс и стандарты: Утвержден отраслевой этический кодекс, детализирующий принципы безопасности пациента, недопустимости "черного ящика" и качества данных. Разработан предварительный национальный стандарт (ПНСТ 961-2024) «Системы искусственного интеллекта в здравоохранении. Этические аспекты».
  2. Мониторинг безопасности: Введен обязательный порядок автоматической передачи данных о работе программного обеспечения с ИИ, зарегистрированного как медицинское изделие (Приказ Росздравнадзора № 4472 от 21.07.2025). Государство получает инструмент постоянного надзора за эффективностью и безопасностью алгоритмов.
  3. Принцип "человек за главного": Системы ИИ имеют ограниченную автономность; врач всегда может проверить, одобрить решение ИИ или отказаться от него.
  4. Верифицированные отраслевые наборы данных и каталог отраслевых ИИ сервисов: Ведется централизованный сбор, систематизация и предоставление доступа заинтересованным участникам отрасли к открытым наборам данных для разработки и научных исследований для создания ИИ сервисов.
  5. Отраслевые эксперименты: На государственном уровне проводятся отраслевые эксперименты, например, эксперимент по использованию инновационных технологий в области компьютерного зрения для анализа медицинских изображений и дальнейшего применения этих технологий в системе здравоохранения.

  • Финансовый рынок (Банк России)пример осознанного "мягкого" регулирования:
  1. Кодекс этики: В июле 2025 года Банк России представил рекомендательный кодекс, основанный на принципах человекоцентричности, справедливости, прозрачности и безопасности и ответственного управления рисками.
  2. Права клиентов: Организации обязаны информировать клиентов о взаимодействии с ИИ и предоставлять возможность отказа от него в пользу человека (например, при скоринге или в чат-ботах).
  3. Управление рисками: Финансовым организациям рекомендовано выстраивать системы внутреннего контроля за работой ИИ и обеспечивать конфиденциальность данных.
  4. Отраслевое консультирование: В ноябре 2025 года Банк России подготовил новый Консультативный доклад с анализом текущего уровня проникновения ИИ на финансовом рынке и предложениями по созданию условий для дальнейшего развития применения ИИ финансовыми организациями. Банк России отмечает в докладе, что для развития применения ИИ на финансовом рынке важно обеспечивать более широкий доступ организаций к данным.

Новый этап: планы развития с учетом поручений Президента РФ (Пр-22 от 03.01.2026)

Перечень поручений Президента Российской Федерации от 03.01.2026 по итогам конференции "Путешествие в мир искусственного интеллекта" знаменует переход к фазе форсированного внедрения, технологического суверенитета и системной координации. Документ задает четкие горизонты планирования.

Перечень поручений предусматривает трехуровневую систему перспективного планирования:
Горизонт планирования
Период
Ключевые задачи и документы (согласно Пр-22)
Ожидаемые результаты
Краткосрочный (оперативный)
2026 г.
Утвердить Национальный план внедрения ИИ. Создать межведомственную комиссию при Президенте. Внедрить показатели ИИ в рейтинг цифровой трансформации регионов. Подготовить предложения по экспорту ИИ-решений и гармонизации стандартов с дружественными странами.
Переход от экспериментов к массовому внедрению в госуправлении и экономике. Появление единого координирующего органа и системы оценки эффективности для регионов и ведомств.
Среднесрочный (тактический)
2026–2030 гг.
Реализация Национального плана внедрения. Развитие инфраструктуры: утверждение плана развития центров обработки данных (ЦОДов) на период до 2030 г. Строительство новых ЦОДов, в т.ч. на базе атомной генерации ("Росатом"). Приоритетное использование российских фундаментальных моделей ИИ в госсекторе и на объектах КИИ.
Создание самодостаточной инфраструктуры для ИИ. Масштабная цифровизация госуслуг и отраслей на базе отечественного ПО. Формирование доказательной базы эффективности ИИ.
Долгосрочный (стратегический)
до 2036 г.
Выполнение долгосрочных планов развития инфраструктуры ЦОДов (до 2036 г.) и энергогенерации для них. Формирование устойчивого экспортного потенциала российских ИИ-решений и стандартов на рынках дружественных стран. Обучение мультимодальных моделей на данных о российской культуре, истории и ценностях.
Обеспечение технологического суверенитета. Формирование альтернативного нормативно-технологического полюса на базе ЕАЭС, БРИКС, ШОС.

Сравнительный анализ с мировой практикой регулирования ИИ

В мире сложилось несколько моделей регулирования. Россия, с учетом новых поручений, формирует уникальный гибридный подход.
Критерий
Россия (новая фаза 2026+)
Европейский Союз
США
Китай
Основной подход
Директивное стратегическое планирование и форсированное внедрение. Государство – главный заказчик, координатор и потребитель. Создана Комиссия при Президенте как высший координационный орган [Указ №116].
Риск-ориентированный закон. Жесткие требования к системам высокого риска, запрет неприемлемых практик.
Либеральный, отраслевой. Упор на инновации, фрагментарное регулирование на уровне штатов и ведомств.
Жесткий государственный контроль. Фокус на соцстабильности, кибербезопасности и госнадзоре за алгоритмами.
Наличие единого закона
Нет (используются стратегии, планы, отраслевое регулирование, "мягкое право").
Да (EU AI Act) — первый всеобъемлющий закон в мире.
Нет на федеральном уровне.
Нет единого; действуют жесткие отраслевые законы.
Цель регулирования
Технологический суверенитет, цифровизация госуправления, экспорт решений и стандартов.
Защита фундаментальных прав граждан, создание безопасного и единого рынка ИИ.
Сохранение технологического лидерства через стимулирование инноваций.
Социальная стабильность, глобальное лидерство, контроль над информацией.
Наличие центрального координирующего органа
Комиссия при Президенте РФ. Координирует все аспекты: от стратегии и образования до безопасности и международного сотрудничества [Указ №116]. Также создаются региональные комиссии.
Европейский офис по ИИ (AI Office). Создан в 2024 г. как часть Еврокомиссии. Специализируется на имплементации EU AI Act, контроле за моделями общего назначения (GPAI) и координации с национальными надзорными органами.
Несколько специализированных органов: - Белый дом (определяет политику). - NIST AI Safety Institute (AISI) (разрабатывает стандарты). - Двухпартийная рабочая группа Конгресса (рекомендации для законодателей)
ЦЕНТРАЛИЗОВАННЫЙ ПОДХОД. Несколько органов с четким разделением функций, но под общим контролем партии/государства: • Государственное управление по киберпространству (CAC) (ключевой регулятор контента и алгоритмов) . • Министерство промышленности и информатизации (MIIT) (промышленная политика).
Ключевые инструменты
Национальные планы, межведомственная комиссия, госинвестиции, ЭПР, отраслевые кодексы этики, анализ угроз по базе ФСТЭК.
Регламент (закон) с классификацией систем по уровням риска.
Отраслевые руководства (FDA, FTC), судебный прецедент, инициативы Белого дома.
Госпланы, законы о рекомендательных алгоритмах, цензуре контента.
Безопасность и этика
Акцент на безопасности КИИ, защите данных, контроле за обучением моделей (культура, история). Применение структурированного подхода к оценке угроз на всех этапах жизненного цикла ИИ.
Прозрачность, недискриминация, объяснимость алгоритмов, human oversight.
Защита прав потребителей, кибербезопасность, невмешательство в инновации.
Госбезопасность, социальная стабильность, идеологический контроль.
Наличие и характер реестра (банка) угроз ИИ
Банк данных угроз безопасности информации систем искусственного интеллекта ФСТЭК России содержит детализированное описание угроз, разделенных по этапам жизненного цикла ИИ-системы (разработка и эксплуатация). Угрозы классифицированы по инфраструктуре и способам их реализации, также определены объекты воздействия для каждого этапа. БДУ ФСТЭК носит обязательный характер для разработчиков и операторов при оценке угроз в соответствии с методикой ФСТЭК для систем государственных организаций и объектов критической информационной инфраструктуры.
Нет единого общедоступного реестра, аналогичного российскому. Требования к управлению рисками и каталогизации угроз для систем высокого риска устанавливаются Европейским советом по искусственному интеллекту. Отдельные базы угроз и уязвимостей ведут национальные агентства по кибербезопасности (например, ENISA публикует отчеты, но не оперативный реестр).
Национальный институт стандартов и технологий (NIST) разрабатывает фундаментальные руководства, такие как NIST AI 100-2 (Adversarial Machine Learning), где подробно классифицируются типы атак и угрозы для ИИ. Эти документы являются лучшими практиками и добровольными для применения.
Информация о конкретных базах угроз ИИ в открытых источниках отсутствует. Учитывая централизацию управления и фокус на безопасности, можно предположить, что подобные реестры ведутся соответствующими регуляторами во внутреннем контуре для целей надзора и стандартизации.
Ответственность
На человеке (разработчике/пользователе). Разработчик и оператор несут ответственность за оценку угроз согласно методике ФСТЭК России.
Смешанная, с возможным облегчением доказывания для потерпевших от систем высокого риска. Штрафы до 35 млн евро или 7% глобального оборота за разработки в категории абсолютно запрещенных, представляющих неприемлемую угрозу основным правам, демократии или безопасности.
Определяется судами на основе общих принципов деликтного права.
Отраслевая, с приоритетом госинтересов.
Роль государства
Главный инвестор, регулятор и первый потребитель. ФСТЭК России выступает как методологический центр по безопасности и источник списка угроз. Минцифры России выступает как центр содействия и стимулирования развития и внедрения технологии.
Регулятор и надзиратель за соблюдением правил рынка.
Наблюдатель и координатор, создающий условия.
Абсолютный центр планирования, контроля и надзора.

Индустриальные фреймворки и модели зрелости безопасности ИИ

Для комплексного сравнения мировых практик также проанализированы не только государственные инициативы, но и индустриальные фреймворки, которые формируют практическую базу безопасности ИИ в России. Ниже представлен детальный обзор российских разработок и международный опыт.
Страна / Регион
Ключевые индустриальные фреймворки и модели зрелости
Россия
Активное формирование экосистемы отраслевых и вендорских фреймворков: 1. SAIMM (Swordfish Security AI Maturity Model) • Разработчик: Swordfish Security • Дата выхода: Октябрь-ноябрь 2025 г. • Суть: Бесплатная методология оценки зрелости компаний в области безопасности ИИ, включающая таксономию угроз (около 80 уязвимостей) и дорожную карту развития. • Ключевые особенности: - Учитывает требования российских регуляторов и специфику отечественных ИИ-систем . - Базируется на международных классификациях (OWASP Top-10, NIST AI RMF, ENISA, MITRE ATLAS), адаптируя их под российскую специфику. - Включает угрозы: компрометация моделей, обход ограничений, раскрытие чувствительной информации, конфликт иерархии инструкций. - Учитывает положения национального проекта "Искусственный интеллект в КИИ". - Применим для любой отрасли (финтех, ритейл, госсектор). 2. AI-SAFE v1.0 (Yandex Cloud) • Разработчик: Yandex Cloud (команда Yandex B2B Tech) • Дата выхода: Ноябрь 2025 г. • Суть: Фреймворк для моделирования угроз и защиты ИИ-агентов, объединяющий OWASP LLM Top 10, MCP Top 10 и угрозы для RAG-систем в единую пятиуровневую модель безопасности. • Ключевые особенности: - Предлагает пятиуровневую архитектурную модель угроз: 1) Интерфейс взаимодействия (Prompt Injection); 2) Исполнение и инструменты (Tool Poisoning); 3) Инфраструктура и оркестрация; 4) Ядро и логика (Jailbreaking); 5) Данные и знания (атаки на RAG) . - Опирается на международные практики OWASP, NIST и MITRE ATT&CK . - Содержит практические рекомендации для разработчиков и инженеров по безопасности на каждом уровне. - Включает анализ реальных инцидентов (дипфейк-мошенничество в банках, утечки в облачных сервисах). 3. Guidelines AI (Лаборатория Касперского) • Разработчик: «Лаборатория Касперского» (при участии научных экспертов) • Дата выхода: Декабрь 2024 г. • Суть: Руководство по безопасной разработке и внедрению систем на основе ИИ, содержащее детальные практические советы для разработчиков, DevOps-команд и системных администраторов. • Ключевые особенности: - Охватывает полный жизненный цикл ИИ-систем: от разработки до эксплуатации . - Предлагает 8 ключевых принципов безопасности: • Информирование и обучение сотрудников; • Моделирование угроз с использованием STRIDE, OWASP; • Безопасность облачной инфраструктуры (нулевое доверие); • Защита цепочки поставок и данных; • Регулярное тестирование и мониторинг; • Защита от специфичных угроз (промпт-инъекции, отравление данных); • Регулярное обновление библиотек и фреймворков; • Соответствие международным стандартам . - Особое внимание уделяет защите от атак на этапе обучения (инъекция нерелевантных данных для повышения устойчивости) и использованию Bug Bounty . Общая характеристика российских индустриальных фреймворков: • Практико-ориентированность: Все три фреймворка созданы для реального применения в бизнесе, содержат чек-листы и конкретные технические рекомендации. • Гармонизация с международными стандартами: При разработке учитывались OWASP, NIST, MITRE, ENISA, но с обязательной адаптацией под российскую специфику и требования регуляторов (ФСТЭК, Минцифры). • Бесплатный доступ: SAIMM и Guidelines AI распространяются бесплатно, что способствует быстрому распространению экспертизы на рынке. • Отраслевая коллаборация: Разработчики активно взаимодействуют с регуляторами и индустриальными объединениями (Ассоциация ФинТех, Консорциум по безопасности ИИ) .
Европейский Союз
Преимущественно регуляторный подход с дополнением индустриальных инициатив: • ENISA публикует отчеты и рекомендации, но не оперативные реестры угроз. • Национальные агентства (например, испанская AESIA) разрабатывают практические руководства по имплементации требований для высокорисковых систем. • Индустриальные фреймворки представлены фрагментарно, в основном на уровне отдельных компаний или исследовательских проектов.
США
Мировое лидерство в развитии добровольных фреймворков и моделей зрелости: • NIST AI Risk Management Framework — комплексный подход к управлению рисками ИИ (Govern, Map, Measure, Manage) . • NIST IR 8596 (Cyber AI Profile) — расширение CSF 2.0 для учета ИИ-специфичных рисков . • OWASP AIMA (AI Maturity Assessment) — специализированная модель зрелости, включающая 8 функций: Responsible AI, Governance, Data Management, Privacy, Design, Implementation, Verification, Operations. Дополняется фреймворком OWASP SAMM, адаптируемым для ИИ-разработки . • MITRE ATLAS — база знаний тактик и техник атак на ИИ-системы, активно используется для моделирования угроз . • CSA STAR for AI Level 2 — новая программа сертификации (ноябрь 2025), сочетающая ISO/IEC 42001 и специализированный опросник AI-CAIQ для оценки зрелости AI-безопасности .
Китай
Централизованный государственный подход с элементами индустриальных стандартов: • Фреймворк безопасного управления ИИ, версия 2.0 — разработан под руководством Управления киберпространства Китая (CAC). Содержит классификацию рисков, методы их предотвращения и управления, динамически обновляется. • Информация о независимых индустриальных фреймворках (аналогичных SAIMM или AI-SAFE) в открытых источниках практически отсутствует, что свидетельствует о доминировании государственных стандартов над рыночными инициативами. • Вероятно, существуют внутренние отраслевые стандарты для конкретных секторов (финансы, госуправление), но они не публичны.

Основные выводы

Новый этап развития: С утверждением поручений Президента от 3 января 2026 года Россия переходит от стратегического целеполагания к форсированному внедрению ИИ. Ключевым документом ближайшего будущего станет Национальный план внедрения, который определит конкретные шаги, показатели и зоны ответственности для всех уровней власти.

Уникальная российская модель: Российский подход представляет собой гибрид, сочетающий:
  • элементы китайского госпланирования (целевые показатели, нацпроекты, приоритет отечественным решениям);
  • европейское внимание к этике и защите данных (через отраслевые кодексы);
  • собственный прагматизм в части стимулирования бизнеса через "регуляторные песочницы".

Отраслевая специфика как драйвер: Наиболее продвинутое регулирование формируется "снизу" - в чувствительных отраслях. Здравоохранение демонстрирует возможность сочетания мягких этических норм с жестким мониторингом безопасности, а финансовый сектор — путь мягкого стимулирования ответственных инноваций.

Глобальное позиционирование: Россия активно заявляет о себе как о новом центре силы в сфере ИИ. Задачи по экспорту технологий и гармонизации стандартов с дружественными странами (БРИКС, ЕАЭС, ШОС) направлены на формирование альтернативного западному нормативно-технологического полюса.

Ключевой вызов: Главная задача на 2026 год – успешная реализация Национального плана внедрения под координацией новой Комиссии и создание эффективно работающих региональных комиссий, преодоление инерции ведомств и обеспечение реального, а не формального спроса на отечественные ИИ-решения в госуправлении и экономике. От этого будет зависеть, насколько быстро декларируемые цели технологического суверенитета станут реальностью.