Разработан законопроект о регулировании ИИ в России

16

Минцифры разработало и представило для общественного обсуждения проект федерального закона о регулировании искусственного интеллекта (ИИ).

Вводятся, в частности, следующие понятия:

ИИ – комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе использующее методы машинного обучения), процессы и сервисы по обработке данных и поиску решений;

сервис ИИ – решение с использованием технологий ИИ для электронных вычислительных машин (её составная часть), которое предоставляет пользователям через пользовательский интерфейс доступ к возможностям технологий искусственного интеллекта для выполнения прикладных задач;

модель ИИ – разновидность программы для электронных вычислительных машин (ее составной части) или совокупность программ для электронных вычислительных машин, предназначенные для выполнения интеллектуальных задач на уровне, сопоставимом с результатами интеллектуальной деятельности человека или превосходящем их, использующая алгоритмы и обучающаяся или ранее обученная на наборах данных для выведения закономерностей, предоставления информации, принятия решений или прогнозирования результатов по заданным человеком целям;

обучение модели ИИ — процесс настройки числовых значений (алгоритмов) модели искусственного интеллекта регулирующих влияние каждого запроса к такой модели и ее ответа на запрос, с использованием наборов данных с целью формирования или совершенствования способности модели искусственного интеллекта достигать заданных человеком целей;

большие фундаментальные модели – модели ИИ, являющиеся основой для создания и доработки различных видов программного обеспечения, обученные распознаванию определённых видов закономерностей, применяемые для выполнения большого количества различных задач и содержащие параметры, минимальное количество которых устанавливается уполномоченным органом в сфере ИИ и пр. (всего 14 разных определений, связанных с ИИ – ред.).

См. текст законопроекта 

В число общих принципов вошли: верховенство прав, свобод и законных интересов человека и гражданина, уважение автономии и свободы воли человека (нормативное правовое регулирование в области искусственного интеллекта не должно умалять право выбора и интеллектуальные способности человека, являющиеся самостоятельной ценностью и системообразующим фактором общества), риск-ориентированный подход к регулированию применения ИИ, обеспечение благоприятных условий для развития технологий ИИ, технологическая независимость, учёт и уважение традиционных российских духовно-нравственных ценностей, безопасность.

Так, учёт и уважение традиционных российских духовно-нравственных ценностей — это обеспечение разработки, внедрения и применения технологий ИИ на основе таких ценностей, как жизнь, достоинство, права и свободы человека, патриотизм, гражданственность, служение Отечеству и ответственность за его судьбу, высокие нравственные идеалы, крепкая семья, созидательный труд, приоритет духовного над материальным, гуманизм, милосердие, справедливость, коллективизм, взаимопомощь и взаимоуважение, историческая память и преемственность поколений, единство народов России.

Под безопасностью подразумевается предотвращение угроз конституционному строю, обороне и безопасности государства, технологической независимости государства, жизни и здоровью физических лиц, деловой репутации и имуществу физических и юридических лиц, индивидуальных предпринимателей, окружающей среде, а также обеспечение информационной безопасности и устойчивости функционирования объектов информатизации с применением технологий ИИ.

Документ можно назвать рамочным – многие положения поручено разработать правительству, в частности:

— дополнительные требования к суверенным и национальным большим фундаментальным моделям, порядок и условия подтверждения соответствия указанным требованиям, а также случаи обязательного применения суверенных и национальных больших фундаментальных моделей;

— порядок ведения реестра доверенных моделей искусственного интеллекта и включения в него моделей ИИ (доверенных – т.е. допущенных к применению в государственных информационных системах и на значимых объектах критической информационной инфраструктуры – ред.);

— подтверждение соответствия модели искусственного интеллекта требованиям качества;

— случаи, когда лица и организации, осуществляющие оказание услуг, обязаны обеспечить гражданину, отказавшемуся от использования технологий ИИ в его отношении, возможность получения услуг в форме и порядке, не предусматривающем автономное использование технологий ИИ и пр.

Справка Минцифры:

Риск-ориентированный подход и уровни моделей ИИ

Законопроект предусматривает риск-ориентированный подход к регулированию ИИ. То есть требования к системам ИИ зависят от степени их влияния на жизнь человека и общество.

Предлагается также ввести понятия суверенной, национальной и доверенной моделей искусственного интеллекта.

Защита прав граждан

Граждане смогут оспаривать решения госорганов и госкомпаний, принятые с использованием ИИ, в досудебном порядке. Если использование ИИ причинило вред, человек получит право на компенсацию — по общим правилам гражданского законодательства. Эти меры призваны защитить права граждан при автоматизированном принятии решений.

Ответственность и безопасность

Разработчики моделей ИИ обязаны исключать дискриминационные алгоритмы и блокировать создание противоправного контента. Операторы систем ИИ должны тестировать их на безопасность и информировать пользователей об ограничениях. Владельцы сервисов будут оперативно принимать меры по недопущению его неправомерного использования.

Ответственность за противоправный результат распределяется между разработчиком, оператором системы, владельцем сервиса и пользователем соразмерно степени вины.

Маркировка синтезированного контента

Все созданные с помощью ИИ аудиовизуальные материалы должны содержать специальную маркировку – предупреждение. Крупные соцсети обязаны проверять её наличие, а при её отсутствии самостоятельно маркировать или удалять контент.

Планируется, что документ вступит в силу с 1 сентября 2027 года, установив чёткие правила для разработчиков, бизнеса и государства, и что он позволит защитить граждан от скрытых манипуляций и дискриминационных алгоритмов.

См. также:

Чтобы не пропустить самое интересное, читайте нас в Телеграм

Поделиться:

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

12-шесть (ответ цифрами)