В России разработан, опубликован и подписан первыми организациями-добровольцами кодекс этики ИИ

Кодекс этики искусственного интеллекта (ИИ) во вторник добровольно подписали 20 крупных компаний и университетов.

Документ рассчитан на присоединение к нему возможно большего числа новых участников.

Кодекс адресован «акторам ИИ», которые призваны ему следовать. Акторы ИИ, это «круг лиц, в том числе иностранных, принимающих участие в жизненном цикле ИИ-системы при его реализации на территории РФ или в отношении лиц, находящихся на территории РФ, включая предоставление товаров и оказание услуг». К таким лицам относятся:

  • разработчики ИИ-систем;
  • заказчики (организация или лицо), получающие продукт или услугу;
  • поставщики данных и лица, осуществляющие формирование наборов данных для применения их в ИИ-системах;
  • эксперты, осуществляющие измерение и/или оценку параметров разработанных моделей/систем;
  • изготовители ИИ-систем;
  • эксплуатанты ИИ-систем;
  • операторы ИИ-систем;
  • разработчики нормативно-технических документов, руководств, различных регуляторных положений, требований и стандартов в области ИИ;
  • иные лица, действия которых потенциально могут повлиять на результаты действий СИИ или лиц, принимающих решения с использованием ИИ-систем.

Цель кодекса состоит в обеспечении прав граждан, которые могут нарушаться – и нарушаются уже – ИИ-системами, которые применяют компании и государство.

Слайд из презентации вице-премьера Дмитрия Чернышенко, источник: aiethic.ru

Кодекс декларирует главным приоритетом развития ИИ-систем «защиту интересов и прав людей и отдельного человека». Эта декларация подробно поясняется в отдельном разделе, который следует рассматривать как просветительский.

Среди положений кодекса можно выделить следующие практические меры, способные – если подписанты кодекса будут эти меры применять на деле – обеспечить соблюдение прав человека при его взаимодействии с ИИ-системами.

  1. Идентификация ИИ в общении с человеком. Следует информировать пользователя о том, что он взаимодействует с ИИ-системой, и дать пользователю возможность прекратить такое взаимодействие. Оговорка «когда это затрагивает вопросы прав человека и критических сфер его жизни», однако, способна превратить этот пункт кодекса в благое пожелание.
  2. Добровольная сертификация организаций, присоединившихся к кодексу, на соответствие его положениям и законодательству РФ. Документ поощряет создание систем добровольной сертификации и маркировки ИИ-систем для подтверждения соответствия стандартам качества.
  3. Ответственность за последствия применения ИИ-систем всегда несёт человек.
  4. Применение ИИ-систем в соответствии с предназначением. ИИ-системы не должны использоваться за пределами «своей» предметной области, которая была выбрана разработчиками для решения определённых на этапе проектирования ИИ-системы задач.
  5. Повышение осведомлённости об этике применения ИИ. Кодекс рекомендует «проводить мероприятия, направленные на повышение уровня доверия и осведомлённости граждан, являющихся пользователями ИИ-систем…, и общества в целом, о разрабатываемых технологиях, особенностях этичного применения ИИ-систем …всеми доступными способами».
Следите за нашим Телеграм-каналом, чтобы не пропускать самое важное!

Поделиться: