ИИ не должен использоваться для массового надзора – рекомендации экспертов Еврокомиссии

Еврокомиссия опубликовала на прошлой неделе рекомендации по политике и инвестициям Евросоюза в технологии искусственного интеллекта, подготовленные независимой группой экспертов высокого уровня по искусственному интеллекту (High-Level Expert Group on AI, AI HLEG) – в документе AI HLEG Policy and Investment Recommendations утверждается необходимость отказаться от использования ИИ-технологий для массового отслеживания и прогнозирования поведения людей, государственного надзора за каждым гражданином.

Отчёт AI HLEG Policy and Investment Recommendations (русский перевод см. здесь) содержит перечень 33 основных рекомендаций с детализацией, которые затрагивают все аспекты регулирования, финансирования и стимулирования развития и применения в ЕС технологий ИИ.

Основной упор сделан на социальных и этических вопросах. Эксперты AI HLEG настоятельно рекомендуют правительствам стран ЕС также взять на себя обязательство не осуществлять в целях национальной безопасности всеобщий надзор за населением, не использовать ИИ для контроля за поведением и финансовым состоянием граждан – так, как это имеет место в Китае, где, в частности, практикуют поголовную оценку кредитоспособности людей.

Рекомендации призывают правительства поощрять разработку и применение «надёжных» ИИ-систем, т.е. таких, которые действуют под контролем человека, применяются в соответствии с нормами права и надёжны в прямом, т.е. техническом, смысле. «Надёжный» ИИ в соответствии с рекомендациями AI HLEG предполагает, в частности, защиту персональных данных, контроль за ними со стороны людей, которым эти данные принадлежат. ИИ-системы при взаимодействии с людьми должны идентифицировать себя во избежание ситуаций, когда, например, робот при онлайн-общении выдаёт себя за человека.

Об AI HLEG

Группа экспертов высокого уровня по ИИ создана Еврокомиссией в июне 2018 года, она уполномочена консультировать Еврокомиссию по вопросам выработки мер в сфере ИИ для реагирования на средне- и долгосрочные вызовы, готовить рекомендации по политике в сфере ИИ, а также по этическим, правовым и социальным вопросам ИИ, включая влияние ИИ на социально-экономическую сферу.

В мандат AI HLEG также входят полномочия по координации деятельности Европейского альянса по ИИ, поддержка диалога с многосторонним сообществом, обобщение экспертных мнений и их отражение в аналитических обзорах и докладах для Еврокомиссии.

В состав группы входят 52 эксперта только из стран ЕС, полномочия группы не имеют срока окончания.

По поручению Еврокомиссии группа в 2019 году разработала два стратегических документа, которые легли в основу политики ЕС в сфере ИИ.

Первый – «Руководство по этике для надёжного ИИ» (одобрен 8 апреля 2019 года). Он определил семь требований к системам ИИ, позволяющих признать их надёжными, заслуживающими доверия (trustworthy): содействие и контроль со стороны человека, техническая надёжность и безопасность, неприкосновенность частной жизни и контроль за использованием персональных данных граждан, транспарентность, многообразие, недискриминационность и справедливость, благополучие общества и сохранение окружающей среды, обеспечение отчётности и возможности аудита.

26 июня 2019 года запущена «пилотная» фаза тестирования закреплённых в руководстве принципов и правил (завершится 1 декабря 2019 года). В начале 2020 года по итогам «пилотной» фазы группа проведёт обзор и актуализирует руководство, а Еврокомиссия предложит дальнейшие действия.

Второй – «Рекомендации по политике и инвестициям ЕС в сфере ИИ» (одобрены 26 июня 2019 года), о которых сказано выше.

Напомним, что в России до конца июля должна быть принята собственная стратегия развития ИИ.

ВАШ КОММЕНТАРИЙ:

Please enter your comment!
Please enter your name here