Еврокомиссия объявила о начале промышленного освоения «этичного ИИ»

467

В Европе начинается этап разработки и экспериментальной апробации систем искусственного интеллекта (ИИ) в соответствии с этическими принципами ЕС, принятыми ранее в отношении ИИ, сказано в сообщении Еврокомиссии, опубликованном в понедельник.

Еврокомиссия предлагает промышленным организациям, научно-исследовательским институтам и государственным органам проверить на практике список этических принципов, составленный группой экспертов, и впервые анонсированный в апреле прошлого года.

После «крупномасштабного экспериментального этапа» и анализа результатов заинтересованными сторонами в начале 2020 года начнётся «формирование международного консенсуса в отношении ИИ, ориентированного на человека», говорится в сообщении.

Как сообщалось ранее, 2016 году в ЕС частные инвестиции в искусственный интеллект составили от 2,4 до 3,2 миллиардов евро. В Азии в ИИ было инвестировано от 6,5 до 9,7 миллиарда евро, а в Северной Америке – от 12,1 до 18,6 миллиарда.

Теперь в ЕС до 2020 года на ИИ будет выделено 1,5 миллиарда евро по программе «Горизонт», ещё 20 миллиардов, как ожидается, составят государственные и частные инвестиции.

Еврокомиссия полагает, что для создания прочной основы развития ИИ после 2020 года потребуются дополнительные инвестиции: каждый год по 20 миллиардов евро совокупных государственных и частных инвестиций, а также по миллиарду в рамках программ «Горизонт» и «Цифровая Европа».

Ранее, напомним, D-Russia.ru публиковал подробную статью о европейских принципах «этичного и демократичного» использования ИИ.

В настоящее время Еврокомиссия декларирует семь основных принципов («ключевых требований») к ИИ-системам:

соблюдение прав человека: ИИ-системы должны работать на справедливое общество, поддерживая [европейские] установления в области прав человека и его основные права, не ограничивая самостоятельность человека;

надёжность и безопасность: ошибки и несоответствия ожиданиям разработчика должны контролироваться человеком на всех этапах жизненного цикла ИИ-систем;

конфиденциальность данных: граждане должны иметь полный контроль над личными данными, и эти данные не должны использоваться во вред людям;

прозрачность: ИИ-системы должны контролироваться человеком (в настоящее время этот принцип соблюдается далеко не всегда, после обучения большинство ИИ-систем работают как «чёрные ящики», это порождает принципиально новые угрозы информационной безопасности человека – ред.).

многообразие, недискриминационный характер и добросовестность: ИИ-системы должны быть доступны для всех, они должны учитывать весь спектр человеческих способностей, навыков и потребностей;

социальное благополучие и экологическая безопасность: ИИ-системы должны использоваться для развития «позитивных социальных изменений», повышения устойчивости и «экологической ответственности» социума;

подконтрольность: следует создать механизмы обеспечения ответственности и подконтрольности ИИ-систем за результаты их деятельности (подконтрольность социуму может обеспечиваться, в частности, за счёт признания ИИ-систем субъектами права, в этом случае юридическую ответственность они несут «самостоятельно»; условный «трибунал для ИИ» радикально упрощает регулирование, поскольку исключает юридическое описание тонкостей создания и применения ИИ-систем – ред.).

1 КОММЕНТАРИЙ

  1. […] В Европе начинается этап разработки и экспериментальной апробации систем искусственного интеллекта (ИИ) в соответствии с этическими принципами ЕС, принятыми ранее в отношении ИИ, сказано в сообщении Еврокомиссии. […]

Comments are closed.