Профильное ведомство вынесло на общественное обсуждение проект закона о применении технологий ИИ. Если документ примут, он станет первым профильным законом, который установит правила для разработки и использования нейросетей в стране.
Основная цель инициативы — обезопасить граждан от скрытого влияния со стороны алгоритмов. Ключевая мера касается маркировки контента. Все аудиовизуальные материалы, созданные при помощи ИИ, должны будут содержать специальное предупреждение. Оно будет размещаться как в привычном для человека виде, так и в машиночитаемом формате. Конкретный порядок маркировки определит правительство.
Закон не затронет сферы обороны, государственной безопасности и охраны правопорядка, а также системы предотвращения ЧС.
Как будут работать новые правила для бизнеса и соцсетей
Законопроект вводит трехуровневую систему ответственности за результат работы нейросетей. Ответственность будет распределяться между разработчиками, операторами систем и владельцами сервисов соразмерно степени вины каждого.
- Разработчики должны следить за содержанием, которое генерируют модели, блокировать дискриминационные алгоритмы и запрещенный контент.
- Операторы обязаны проверять системы ИИ на безопасность и предупреждать пользователей об ограничениях в работе.
- Владельцы сервисов (включая крупные соцсети с аудиторией от 100 тысяч пользователей в день) будут проверять наличие маркировки. Если предупреждение отсутствует, платформа должна либо промаркировать материал сама, либо удалить его.
Для граждан предусмотрена возможность досудебного обжалования решений госорганов, которые были приняты с использованием ИИ. Если использование нейросетей причинит вред, пострадавший сможет рассчитывать на компенсацию по нормам гражданского законодательства.
Влияние на бизнес: новые риски и роль Chief AI Risk Officer
Принятие закона и активное внедрение технологий меняют корпоративную структуру управления. В компаниях появляется запрос на специалистов, которые отвечают за надежность интеллектуальных систем.
Эксперты Softline прогнозируют, что в ближайшие годы в крупных организациях может закрепиться новая позиция — Chief AI Risk Officer (CAIRO). Этот руководитель будет заниматься аудитом моделей, контролем качества данных и мониторингом поведения алгоритмов. По данным Gartner, к 2028 году до 30% крупных компаний создадут специализированные команды для управления угрозами, связанными с ИИ. Среди основных рисков — атаки на алгоритмы машинного обучения, искажение данных при обучении, генерация ложных ответов и технические сбои.
Сроки вступления и стратегический контекст
В законопроекте вводится единая терминология, включая понятия суверенной, национальной и доверенной моделей ИИ. Ведомство подчеркивает, что используется риск-ориентированный подход: чем сильнее система влияет на жизнь и здоровье людей, тем строже требования к ее работе.
Если документ пройдет все стадии согласования, он вступит в силу 1 сентября 2027 года.