Актуальные задачи международного взаимодействия по развитию и регулированию искусственного интеллекта

Авторы статьи – Андрей Кулешов (Центр НТИ по направлению «Искусственный Интеллект» на базе МФТИ), Андрей Игнатьев (Эксперт группы AIGO, ОЭСР), Анна Абрамова (МГИМО), Григорий Маршалко (ТК26 «Криптографическая защита информации»), Максим Федоров (Сколтех) – входят в состав ОЭГ «ИИИ» – неформальной объединённой экспертной группы «Исследования искусственного интеллекта».

В настоящее время наблюдается взрывной рост практического применения технологий, идентифицируемых как искусственный интеллект (ИИ), в самых разнообразных областях экономики. В связи с этим активизировалась деятельность правительств, международных организаций, транснациональных корпораций, а также гражданского общества по формулированию глобальных норм и правил в вопросах разработки, внедрения и использования технологий ИИ. В связи с беспрецедентными возможностями влияния систем ИИ на права человека и их существенным отличием от традиционных информационных систем последствия принятых правил будут иметь глобальный и, вероятно, перманентный трансформативный характер как для экономики, так и для общества. В статье ставятся некоторые из стратегически важных вопросов участия Российской Федерации в процессе выработки международной регуляторики в области ИИ, её увязки с национальными интересами и стратегией развития.

Ключевые слова: регулирование искусственного интеллекта; системы искусственного интеллекта; модель системы искусственного интеллекта; определение, терминология и концепции в области искусственного интеллекта; международное сотрудничество в области искусственного интеллекта; международные организации в области искусственного интеллекта; инструменты мягкого права в области искусственного интеллекта; принципы в области искусственного интеллекта; этика в области искусственного интеллекта.

I. Введение

Общий экономический эффект от внедрения технологий ИИ может составить до 35% экономического роста в период до 2035 года (Accenture, 2018). Область технологий, идентифицируемых как «искусственный интеллект», весьма широка и, в зависимости от используемых определений, может приводить к различным оценкам её позитивного и негативного воздействия на общество.

Ввиду своей многомерности и сложной измеримости традиционным инструментарием, как в технологическом, так и в научно-философском смысле, на сегодня «искусственный интеллект» становится ещё более размытым и неоднозначным понятием (ведущие исследовательские мировые площадки предлагают лишь зонтичное определение ИИ). Вместе с тем, при указанной терминологической неопределённости, различные интеллектуальные автоматизированные системы широко проникают во все сферы человеческой деятельности, оказывают влияние на социально-экономическую жизнь людей, становятся фактором, воздействующим на экономическое развитие на национальном и глобальном уровне. Таким образом ИИ, как пока не сформулированная и онтологически несконфигурированная область, становится полем активной рыночной конкуренции и геополитического соперничества.

Специфика и особенности систем, использующих ИИ, возникают в связи с возможностью отдельных систем, обладающих высокой степенью автономности, самостоятельно формировать алгоритм[1] принятия решения одновременно с выработкой такого решения, что отличает их от большинства существующих в настоящее время систем, имеющих фиксированный, заранее описанный алгоритм функционирования. Вместе с тем такое свойство позволяет в ряде случаев использовать системы ИИ с успехом в областях, где ранее мог действовать исключительно человек. При впечатляющих возможностях производить сложнейшие вычисления на основе данных большой размерности, не во всех задачах системы ИИ способны получить результаты, соответствующие способностям человека, особенно это касается вопросов, где человек действует на основе жизненного опыта, воспитания, принятых в обществе норм, правил и традиций. Вычислительный процесс (вычислительная логика) систем и некачественный набор исходных данных может вызвать несправедливые, предвзятые решения. Следует заметить, однако, что при тщательном подходе к проектированию, настройке и контроле системы на всех жизненных циклах, свойства «чёрного ящика» могут быть сведены к минимуму или исключены. Таким образом, обозначенные проблемы ставят в практическую плоскость задачу разработки конкретных механизмов оценки (контроля), измерения и регулирования ИИ.

Сегодня, проходя этап выявления таких механизмов, мы имеем многочисленные документы (исследования, декларации, рекомендации, принципы и др.), в которых зафиксированы разработанные в мире инструменты мягкого права. Было бы удобно назвать этот период этапом «неопределённых правил, правового вакуума, экспериментов и песочниц». Дальнейшие подходы к регулированию ИИ будут сильно зависеть от заложенных сегодня базовых концепций и принципов. Практические последствия будут определяться эффективностью применения тех или иных концептуальных моделей, формирующимися механизмами и инструментами регулирования ИИ. Ключевое значение будут иметь также методики классификации и метрики измерения систем ИИ, применяемые универсальные и отраслевые показатели и индикаторы для различных видов оценки систем ИИ, включая подготовку статистических данных.

В разрабатываемых документах в контексте измерения и оценки систем ИИ используется широкий спектр понятий, таких, например, как робастность, точность, безопасность, объяснимость, прозрачность, управляемость, устойчивость, непредвзятость, справедливость и множество других (в мире подготовлено более ста документов с различными «принципами» построения систем ИИ). Это связано с желанием оценить безопасность систем и их близость к справедливому, с точки зрения человека, решению – в ряде документов это обозначено как «доверенный» ИИ. Следует заметить, что данные терминологические подходы трактуются в обществе, да и в среде специалистов, весьма неоднозначно, они требуют более точной научной верификации, основанной на согласовании и принятии на конценсусной основе принципиальной структурной модели систем ИИ и базовом концепте построения различных систем.

Можно констатировать, что в среде международных экспертов преобладает мнение, что общий подход к регуляторной модели систем искусственного интеллекта может быть основан на «парадигме агента», в которой система ИИ получает информацию об определенном состоянии окружающей среды и воздействует на эту среду для достижения определенной цели. При этом, на наш взгляд, важно отметить, что контроль человека над подготовкой набора данных, разработкой математической модели, постановкой задачи и в целом над вычислительным процессом должен быть обеспечен на всем жизненном цикле системы, использующей технологии ИИ.

Основные мировые площадки в области регулирования декларируют «принципы и меры предосторожности», которые сводятся к необходимости избегать опасные непредвиденные последствия использования новых технологий. В то же время некоторая часть представителей бизнеса и инвесторов видят в таком подходе барьер для развития технологий (Kuziemski, 2019). Очевидно, что механизмы и инструменты регулирования технологий ИИ, необходимые для реализации этих двух подходов, будут различны. Вопрос выбора и гармонизации регуляторной политики сводится к комплексной оценке долгосрочного баланса всех опасностей и выгод, рисков и возможностей, связанных с развитием ИИ – при условии ясности и понимания в широких мировых кругах как национальных, так и наднациональных, общечеловеческих интересов. Актуальным также является горизонт планирования и необходимость регулирования сегодняшних и завтрашних внедрений (зачастую диалог исследователей затруднён тем, что одни говорят о подходах к реальным системам ИИ, которые эксплуатируются сейчас, другие же ведут его применительно к сценариям будущего, в котором невозможно предвидеть уровень технологических возможностей и перспектив) – таким образом, регулирующие меры должны быть приближены к реальности, охватывать не только сегодняшние системы, но и закладывать базовые правила для будущего.

Важно отметить также, что регулирование ИИ неразрывно связано со всем комплексом вопросов формирования цифровой экосистемы и развития сквозных цифровых технологий. В частности, при формировании будущей системы регулирования ИИ на национальном и международном уровне экспертное сообщество ставит на повестку дня вопросы обеспечения регулирования в сфере управления данными, включая трансфер данных, защиту персональных данных и др., что напрямую затрагивает интересы отдельных граждан и экономических агентов, ориентированных на широкое применение технологий ИИ, например, в электронной коммерции.

Ниже рассматривается регуляторная деятельность различных глобальных игроков, выделяется ряд моментов, которые требуют внимания со стороны экспертного сообщества России.

II. Вопросы развития и регулирования ИИ в международных организациях

Приведён общий международный ландшафт и краткая информация по основным позициям и документам наиболее авторитетных международных площадок.

ООН

В 2018 году в ООН подготовлен доклад (United Nations, 2018), в котором, в частности, рассмотрены вопросы воздействия технологий ИИ на права человека в информационной среде. В документе отмечается, что компаниям следует рассмотреть вопрос о том, как разработать профессиональные стандарты для инженеров по ИИ, воплотив правозащитную ответственность в руководство по выбору технических решений при проектировании и эксплуатации систем ИИ. Рекомендуется также создать системы рассмотрения жалоб и предоставления средств правовой защиты для своевременного реагирования на жалобы и апелляции пользователей. Следует регулярно публиковать данные о периодичности подачи жалоб и просьб о предоставлении средств правовой защиты в отношении ситуаций, где имели место системы ИИ, а также о видах и эффективности имеющихся средств правовой защиты.

Вопросы ИИ также начали рассматриваться в рамках профильных компетенций Комиссии по Экономическому и Социальному развитию (ЭКОСОС) и Конференции ООН по торговле и развитию (ЮНКТАД). ЮНКТАД реализует ряд инициатив по расширению дискуссии по трансферу данных и сопряжённых с ним рисков для стран, отстающих в развитии цифровой экономики. В 2018 г. был выпущен Доклад о цифровой экономике, где одним из центральных вопросов стал трансфер данных, а также потенциал его влияния на развитие технологий блокчейна, облачных технологий, интернета вещей и ИИ. Многосторонним форумом, открытым для всех стран-членов, стала ежегодная Неделя электронной коммерции ЮНКТАД, где при участии экспертов, представителей бизнеса и государств проводится обсуждение проблематики развития цифровой экономики. Всё чаще в повестку заседаний вносятся вопросы влияния на экономику стран трансфера технологий, возможности его регулирования и потенциал технологий ИИ и блокчейна.

Учреждение ООН по вопросам образования, науки и культуры – ЮНЕСКО (UNESCO)

ЮНЕСКО отмечает, что накопление данных о поведении человека и использование вычислительных технологий для их обработки порождает новые вопросы в плане соблюдения прав человека, свободы обмена информацией и образования (UNESCO, 2019). В качестве цели политики ЮНЕСКО в области ИИ обозначено использование возможностей новых ИТ технологий для построения «общества знаний» и достижения целей устойчивого развития (ЦУР, Sustainable Development Goals, SDGs) (UNESCO, 2019).

ЮНЕСКО рекомендует подходить к глобальному развитию ИИ в с точки зрения принципов ROAM (права человека, открытость, доступность, участие всех заинтересованных групп) сформулированных ранее в контексте «универсального развития интернета» (UNESCO, 2019). Кроме принципов ROAM программный документ ЮНЕСКО (UNESCO, 2019) отмечает необходимость разработки этических принципов для ИИ, а также необходимость соблюдать равноправие полов и социальных меньшинств, уделять особое внимание преодолению «цифрового неравенства», особенно в отношении стран Африки.

В ЮНЕСКО действует экспертный орган и форум – Всемирная комиссия по этике научных знаний и технологий (COMEST). В 2017 году Комиссия подготовила доклад по этике в области робототехники (Report on Robotics Ethics).

Уровень внимания, уделяемый ЮНЕСКО вопросам ИИ, отражается в интенсивности проведения мероприятий по обсуждению затронутых вопросов. В течение 2019 года вопросы ИИ поднимались на следующих мероприятиях ЮНЕСКО:

  • глобальная конференция ЮНЕСКО «Принципы ИИ: в направлении гуманистического подхода», март 2019; отмечен важный принцип – ИИ не должен становиться автономным или заменять человеческий интеллект. (UNESCO, 2019);
  • неделя Мобильного Обучения ЮНЕСКО «Искусственный интеллект для устойчивого развития» (UNESCO, 2019);
  • международная конференция ЮНЕСКО по искусственному интеллекту и образованию ЮНЕСКО в Пекине (UNESCO, 2019), опубликовавшая итоговый «Пекинский консенсус» (UNESCO, 2019);
  • XV Всемирная конференция по интеллектуальному капиталу «Искусственный интеллект и следующее поколение компетенций: как цифровые технологии и искусственный интеллект влияют на будущее профессиональных компетенций».

Несмотря на большой объём международных консультаций, в ЮНЕСКО наблюдается полярность дискуссий по ряду вопросов, в том числе:

  • регулирование ИИ – два основных подхода: (1) приоритет технологического развития и регулирование по мере понимания возникающих проблем (США, Китай, ряд стран ЮВА) и (2) регулирование на основе принципа предосторожности, исключающее непредвиденные изменения status quo (Страны ЕС);
  • вопросы, связанные с гендерным неравенством и правами меньшинств; ряд стран (США, ЕС) считают эти вопросы принципиально важными при внедрении ИИ, в то время как другие страны, включая РФ, полагают, что эти вопросы лежат вне плоскости развития ИИ технологий;
  • доступ к технологиям: «цифровое неравенство» между различными странами, социальными группами; неравномерность уровней образования и экономического развития; монополизация целого стека технологий ИИ глобальными игроками; ЮНЕСКО призывает страны перейти от конкуренции к открытому сотрудничеству, усилить обмен знаниями, ресурсами и инструментами в сфере ИИ, а также укрепить многостороннее и межведомственное взаимодействие.

На Генеральной  Конференции ЮНЕСКО 2019 г. была единогласно принята резолюция о разработке этических норм в области ИИ (UNESCO, 2019). Предполагается, что группа международных экспертов будет работать в течение следующих 18-и месяцев над подготовкой соответствующих документов. Участие экспертов из РФ в этой работе на данный момент активно обсуждается.

Международный союз электросвязи – МСЭ (ITU)

В МСЭ создан ряд фокус-групп с задачей изучения возможных направлений стандартизации технических аспектов в области ИИ в контексте ряда прикладных областей:

  • FG-ML5G (группа по Машинному обучению для будущих сетей, включая 5G – ITU-T Focus Group on «Machine Learning for Future Networks including 5G»);
  • FG-AI4H (Совместная группа МСЭ и Всемирной организации здравоохранения (ВОЗ) «Искусственный интеллект для здравоохранения» – The ITU/WHO Focus Group on «Artificial intelligence for Health»);
  • группа по беспилотному транспорту (Focus Group on AI for Autonomous & Assisted Driving);
  • FG-AI4EE («Эффективность Искусственного интеллекта и других новых технологий с точки зрения охраны окружающей среды» – ITU-T Focus Group on «Environmental Efficiency for Artificial Intelligence and other Emerging Technologies»).

Основное внимание в МСЭ фокусируется на реализации технологий 5G/IMT-2020 и больших данных. В работе по стандартизации основной спектр внимания – телекоммуникационные сети и их архитектура, в т.ч. применительно к облачным вычислениям и инфраструктуре, включая «умные» города. В настоящее время разрабатывается 10 стандартов для сетей с фокусом на 5G/IMT-2020, облачные вычисления и доверенную сетевую инфраструктуру, 1 – по требованиям к сигнализации, протоколам, тестовым спецификациям с использованием ИИ-аналитики, 2 – по качеству обслуживания и услуг, 9 – мультимедиа, 1 – в области безопасности, 2 –  интернет вещей, «умные» города и сообщества. Согласно сложившейся практики документы по стандартизации на этапе разработки согласуются с экспертами ISO/IEC и IEEE.

Кроме того, МСЭ организует Глобальный саммит «AI for Good», на котором рассматривается широкая тематическая повестка для достижения ЦУР (цели устойчивого развития ООН), очередное мероприятие состоится в мае 2020 г. На площадке запущен ряд международных ИИ-проектов в области образования, здравоохранения, космических исследований, ведётся работа по разработке «индексов готовности к ИИ» (ARI). Организацией на постоянной основе поддерживается депозитарий с целью выявления проектов и исследовательских инициатив аналитических центров и организаций, имеющих отношение к ИИ, которые могут ускорить достижение ЦУР.

Организация экономического сотрудничества и развития – ОЭСР (OECD)

В мае 2019 г. Совет ОЭСР утвердил Рекомендацию по ИИ (OECD, 2019), подготовленную международной экспертной группой AIGO, включавшей более 50 человек. Документ ставит во главу угла концепцию доверия к системам ИИ и определяет пять взаимодополняющих принципов ответственного управления, которые призваны её обеспечить:

  • ИИ должен приносить пользу людям и планете, стимулируя инклюзивный рост, устойчивое развитие и благосостояние (инклюзивный рост, устойчивое развитие и благополучие);
  • системы искусственного интеллекта должны разрабатываться таким образом, чтобы соблюдалось уважение к верховенству права, правам человека, демократическим ценностям и многообразию, при этом должны обеспечиваться надлежащие гарантии, например, в случае необходимости, должно быть предусмотрено вмешательство человека в работу системы, чтобы гарантировать справедливое и честное общество (человекоцентричный подход и справедливость);
  • необходимо обеспечить прозрачность и ответственное раскрытие информации о системах ИИ, чтобы люди понимали результаты использования ИИ и могли управлять им (прозрачность и объяснимость);
  • системы искусственного интеллекта должны функционировать надёжно, гарантированно и безопасно в течение всего жизненного цикла, потенциальные риски должны постоянно отслеживаться и приниматься соответствующие меры управления (устойчивость /робастность/, безопасность и надежность);
  • организации и отдельные лица, разрабатывающие, внедряющие или эксплуатирующие системы ИИ должны нести ответственность за их надлежащее функционирование в соответствии с вышеуказанными принципами (ответственность).

Для реализации этих принципов ОЭСР адресует правительствам пять основных рекомендаций:

  • содействовать государственным и частным инвестициям в исследования и разработки для стимулирования инноваций в области надежного ИИ;
  • содействовать развитию доступных экосистем искусственного интеллекта с цифровой инфраструктурой, современными технологиями и механизмами для обмена данными и знаниями;
  • обеспечить такую политическую среду, которая откроет путь к развертыванию и внедрению надежных ИИ-систем;
  • способствовать приобретению людьми навыков в области ИИ и оказывать поддержку работникам в целях справедливого перехода к использованию ИИ;
  • осуществлять трансграничное и межсекторальное сотрудничество в целях достижения прогресса в ответственном управлении доверенным ИИ.

Применительно к международному сотрудничеству рекомендация ОЭСР говорит о консенсусе международных технических стандартов для совместимости и доверия к ИИ. Также речь идёт о необходимости сопоставимых на международном уровне показателей для оценки результатов исследований, разработок и внедрений в области ИИ, включая фактологическую базу для оценки прогресса в деле осуществления вышеперечисленных принципов. В настоящее время в ОЭСР разрабатывается Практическое Руководство по имплементации вышеперечисленных «Рекомендаций по ИИ».

В июне 2019 г. на саммите лидеров стран «Группы двадцати» была принята Осакская декларация, в которой лидеры заявили «о своей приверженности подходу к ИИ, ориентированному на интересы человека» и приветствовали «не имеющие обязательной юридической силы Принципы «Группы двадцати» в области развития искусственного интеллекта (OECD, 2019), выработанные на основе Рекомендации ОЭСР по ИИ».

Саудовская Аравия (в настоящее время страна-председатель «Группы двадцати») выразила намерение продолжить работу по принятым принципам, в частности разработать план действий и механизмы по имплементации Принципов «Группы двадцати» по ИИ, обратив особое внимание на использование систем ИИ в здравоохранении, образовании и государственном управлении.

Европейская комиссия (EC)

Созданная при Еврокомиссии представительная группа экспертов HLEG (High-Level Expert Group on Artificial Intelligence) подготовила целый ряд базовых документов, которые легли в основу европейских стратегических ориентиров в области ИИ:

  • ИИ для Европы (Европейская Комиссия, 2018).
  • Доверие в человекоцентричном ИИ (Европейская Комиссия, 2019).
  • Определение ИИ: возможности и научные дисциплины (Европейская Комиссия, 2019).
  • Руководство по этике для доверенного ИИ (Европейская Комиссия, 2019).
  • Рекомендации для доверенного ИИ в области политики и инвестиций (Европейская Комиссия, 2019).

Еврокомиссия определяет три базовых компонента для жизненного цикла доверенных систем ИИ:

  • законность (соответствие законам и регулирующим нормам);
  • этичность (соблюдение этических норм, принципов и уважение ценностей);
  • надёжность (обеспечение робастности, устойчивости), при этом подчёркивается, что даже при хороших намерениях системы ИИ могут нанести непреднамеренный вред).

Совет Европы – СЕ (CoE)

Организация удерживает лидирующие позиции в формировании современных подходов и политических стандартов по развитию ИИ применительно к защите прав человека, демократии и верховенству закона. СЕ призывает к созданию эффективных надзорных механизмов и демократических контрольных (наблюдательных) структур по вопросам проектирования, разработки и внедрения ИИ.

СЕ сформировал на своей площадке рабочие органы в области ИИ:

  • Междисциплинарный комитет экспертов по правозащитным аспектам автоматизированной обработки данных и различным формам искусственного интеллекта – MSI-AUT (Committee of experts on Human Rights Dimensions of automated data processing and different forms of artificial intelligence).
  • Специальный Комитет СЕ по ИИ (CAHAI – Ad Hoc Committee on Artificial Intelligence). Комитет создан в ноябре 2019 г., в настоящее время готовится комплексное исследование вопросов развития ИИ, включающее анализ рисков и возможностей технологии, изучается целесообразность разработки на основе широких консультаций правовой базы для проектирования и применения ИИ на основе стандартов СЕ в области прав человека, демократии и верховенства права. В дальнейшем не исключена перспектива подготовки CAHAI Конвенции по вопросам ИИ.

К настоящему моменту в СЕ уже разработаны следующе основные документы по ИИ:

  • Декларация Комитета Министров СЕ о манипулятивных возможностях алгоритмических процессов (Совет Европы, 2019);
  • Комитет Конвенции СЕ о защите данных («Конвенция 108») представил доклад о последствиях ИИ, а также выработал руководящие принципы по ИИ и защите данных (Совет Европы, 2019);
  • Европейская комиссия по вопросам эффективности правосудия Совета Европы (CEPEJ) приняла Европейскую этическую хартию по использованию ИИ в судебных системах;
  • Исследование прав человека при автоматической обработке данных и возможные регуляторные применения (Совет Европы, 2017);
  • Документ рекомендательного характера «Распаковка ИИ. 10 шагов к защите прав человека» (Совет Европы, 2019).

В документах, в частности, указывается, что системы ИИ способны оказывать воздействие на «когнитивную автономию индивидуумов» и являться инструментом микронацеливания (точечного воздействия на социальное поведение людей, на покупательскую активность и др.).

Институт инженеров электротехники и электроники (IEEE)

Идеология подхода IEEE к вопросам ИИ предполагает выделение более широкой области систем – автономные и интеллектуальные системы (А/ИС).

В Институте разработан базовый документ – Ethically Aligned Design, который по сути является этически выверенной концепцией, в которой изложены научный анализ, ресурсы, высокоуровневые принципы и практические меры, необходимые для создания таких систем. В документе предлагаются конкретные рекомендации по стандартам, сертификации, регулированию для разработки, производства и использования А/ИС. Цель глобальной инициативы IEEE по заключается в выстраивании этически обоснованного проектирования А/ИС, которое будет служить прагматичным ориентиром для работы технологов и лиц, ответственных за разработку политики в области интеллектуальных систем на ближайшие годы.

Согласно документам IEEE при проектировании, разработке и внедрении А/ИС на этической основе и при уважении человеческих ценностей следует руководствоваться следующими общими принципами:

  1. Права человека. А/ИС должны создаваться и функционировать с целью уважения, поощрения и защиты международно-признанных прав человека.
  2. Благополучие. Создатели А/ИС должны принять повышение благосостояния человека в качестве основного критерия успеха развития.
  3. Агентство данных. Создатели А/ИС должны предоставить отдельным лицам возможность доступа к своим данным и безопасного обмена ими, чтобы сохранить способность людей контролировать свою автономность и личную жизнь.
  4. Эффективность. Создатели и операторы А/ИС должны представить доказательства эффективности и пригодности А/ИС для использования.
  5. Прозрачность. Основа конкретного решения А/ИС должна быть всегда доступна.
  6. Ответственность. А/ИС должны создаваться и функционировать таким образом, чтобы обеспечивать однозначное обоснование всех принимаемых решений.
  7. Осведомленность о неправомерном использовании. Создатели А/ИС должны быть защищены от всех возможных злоупотреблений и рисков, связанных с эксплуатацией А/ИС.
  8. Компетенция. Создатели А/ИС должны указать, а операторы должны придерживаться требуемых знаний и навыков для безопасной и эффективной работы систем.

В настоящее время в разработке Института находится серия из 14-ти стандартов (IEEE P7000TM – P7013TM), которые затрагивают вопросы на стыке технологических и этических подходов к А/ИС (прозрачность, защиты персональных данных, предубеждения, вызванные алгоритмами, управление данными, вопросы доверия и др.).

Кроме того, под патронажем IEEE и IEEE Standards Association развёрнуты различные международные инициативы, в т.ч. The Open Community for Ethics in Autonomous and Intelligent Systems (OCEANIS), The Ethics Certification Program for Autonomous and Intelligent Systems (ECPAIS), The Ethically Aligned Design University Consortium (EADUC), платформа для кооперации «AI Commons».

Международная организация по стандартизации (ISO) и Международная электротехническая комиссия (IEC)

В 42-м подкомитете 1-го Объединённого технического комитета Международной организации по стандартизации (ISO) и Международной электротехнической комиссии (IEC) в настоящее время разрабатывается целый ряд стандартов в области ИИ, которые можно классифицировать по следующим областям:

  • основополагающие стандарты (терминология и концепции);
  • стандарты больших данных для систем ИИ;
  • доверие к системам ИИ;
  • практические примеры использования и приложения;
  • вычислительные методы и характеристики систем ИИ.

В настоящий момент в подкомитете разрабатываются следующие проекты международных стандартов:

  • ISO/IEC 22989, Искусственный интеллект – концепции и терминология (Artificial intelligence — Concepts and terminology);
  • ISO/IEC 23053, Фреймворк систем ИИ, основанных на машинном обучении (Framework for Artificial Intelligence (AI) Systems Using Machine Learning (ML));
  • ISO/IEC TR 24027, Вопросы предвзятости в системах ИИ и в принятии решений с помощью систем ИИ (Bias in AI systems and AI aided decision making);
  • ISO/IEC TR 24028, Обзор вопросов доверия в системах ИИ (Overview of trustworthiness in Artificial Intelligence);
  • ISO/IEC TR 24029-1, Оценка робастности нейронных сетей – часть 1: обзор (Assessment of the robustness of neural networks — Part 1: Overview);
  • ISO/IEC 23894, Управление рисками (Risk Management);
  • ISO/IEC TR 24368, Обзор этических и общественных вопросов (Overview of ethical and societal concerns);
  • ISO/IEC 38507, Последствия использования систем ИИ для систем управления (Governance implications of the use of artificial intelligence by organizations);
  • ISO/IEC TR 20547-1, Эталонная архитектура больших данных: Часть 1, фреймворк и процесс практического применения (Big data reference architecture — Part 1: Framework and application process);
  • ISO/IEC 20547-3, Эталонная архитектура больших данных: Часть 3, эталонная архитектура (Big data reference architecture — Part 3: Reference architecture);
  • ISO/IEC 24668, Фреймворк для управления процессами при анализе больших данных (Process management framework for Big data analytics);
  • ISO/IEC TR 24030, Примеры практического использования (Use cases);
  • ISO/IEC TR 24372, Обзор вычислительных методов в системах ИИ (Overview of computational approaches for AI systems).

В России создан Технический комитет по стандартизации «Искусственный интеллект» – ТК164, который является зеркальным по отношению к ISO/IEC JTC1 SC42 и участвует в работе данного международного органа с правом голосования. На данный момент лидерами проектов являются эксперты из США, Канады, Великобритании, Германии, Франции, Китая, Индии.

Всемирная организация по интеллектуальной собственности – ВОИС (WIPO)

Сообразно своему мандату ВОИС уделяет основное внимание патентному ландшафту и тенденциям, а также той роли, которую играют патенты в регулировании использования технологий ИИ. ВОИС опубликовала отчет о патентном ландшафте ИИ (WIPO, 2019), а также инициировала процесс открытых консультаций по взаимному влиянию ИИ и интеллектуальной собственности. Организация не публиковала рекомендаций по политике в отношении ИИ.

По классификации WIPO патентная активность, связанная с ИИ, делится на следующие три группы:

  1. Методы, используемые в ИИ, такие как машинное обучение.
  2. Функциональные приложения, такие как обработка речи и компьютерное зрение.
  3. Области применения, включая телекоммуникации и транспорт.

В публикации по патентному ландшафту отмечается ряд тенденций, которые помогают понять сравнительный масштаб интереса к управлению вопросами интеллектуальной собственности в сфере ИИ. Вопрос регулирования прав интеллектуальной собственности в области ИИ в интересах общественного блага пока на ставился. Можно отметить следующие тенденции:

  • изобретения, связанные с ИИ, достигают коммерческого успеха при переходе от теории (уровень 1) к коммерческому применению (уровень 3);
  • многие патенты на ИИ включают изобретения, которые могут быть применены в различных отраслях промышленности; многие технологии, связанные с ИИ, могут найти применение в различных отраслях промышленности, о чем свидетельствует большое количество патентов на ИИ, относящихся к нескольким отраслям;
  • некоторые методы ИИ и практические приложения очевидно взаимосвязаны; наиболее часто патентные заявки касаются следующих комбинаций технологий: глубокое обучение часто комбинируется с компьютерным зрением; компьютерное зрение с транспортом; телекоммуникации с безопасностью; онтологическая инженерия с обработкой естественного языка; машинное обучение с жизненными и медицинскими науками;
  • университеты вносят значительный вклад в исследования ИИ в конкретных областях, причем китайские университеты доминируют; китайские организации составляют 17 из 20-и лучших академических игроков в патентовании ИИ, к тому же 10 из 20-и лучших научных публикаций по ИИ – китайские;
  • приобретения дополняют внутренние стратегии исследований и интеллектуальной собственности; всего с 1998 года было приобретено 434 компании в секторе ИИ, причем 53% приобретений пришлось на период с 2016 года. Количество приобретений, выявленных в секторе искусственного интеллекта, ежегодно увеличивается с 2012 года, достигнув 103 в 2017 году. Хотя Alphabet (включая Google, DeepMind, Waymo и X Development) занимает 10-е место по количеству поданных изобретений (3814 заявки), он занимает 1-е место с точки зрения приобретения компаний AI. В приобретениях также проявляли активность Apple и Microsoft;
  • сотрудничество в исследовании ИИ ограничено, но и конфликт тоже. Во многих случаях организации, сотрудничающие в области научных исследований, зачисляются в качестве сонаследников по патентным заявкам. Тем не менее, ни один из 20 лучших заявителей не разделяет права собственности более чем на 1 процент своего портфеля с другими заявителями.

Всемирная торговая организация – ВТО (WTО)

В настоящее время ВТО не разрабатывает отдельных положений, ориентированных исключительно на регулирование трансфера технологий ИИ. Основной пакет соглашений ВТО был разработан в «аналоговый» период, когда даже самые смелые аналитики не прогнозировали столь широкого влияния цифровизации на международную торговлю. В последние несколько лет стало очевидно, что инструментарий Генерального Соглашения по тарифам и торговле (ГАТТ), Генерального соглашения по торговле услугами (ГАТС), Соглашения по торговым аспектам прав интеллектуальной собственности (ТРИПС) и соглашения секторальной направленности – Соглашение по информационным технологиям (СИТ) – явно недостаточен для дальнейшей адаптации торговой политики стран-членов организации к новому витку развития электронной коммерции в рамках цифровой экономики. Электронная коммерция была внесена в рабочую повестку ВТО в 1998 г. после принятия Министерской декларации о глобальной электронной коммерции. Результатом стало формирование рабочей программы по вопросам электронной коммерции с введением моратория на взимание таможенных пошлин с электронных трансмиссий, действие которого регулярно продлевается и мониторингом динамики развития данной сферы.

В ежегодном докладе ВТО за 2018 г. эксперты ВТО отметили, что именно ИИ наряду с технологиями блокчейна, интернета вещей и 3D несёт потенциал значительной трансформации международной торговли и электронной коммерции (WTO, 2018). Отмечается, что данные технологии могут оказать значительное воздействие на компьютерные услуги и трансфер интеллектуальной собственности (WTO, 2019).

Активная дискуссия по вопросам влияния платформизации, расширения трансфера и аккумуляции данных на формирование монопольного или олигополистического положения ограниченного круга компаний, все шире использующих технологии ИИ, проходит на полях ежегодного WTO Public Forum. Участники, представляющие международные организации, экспертов, академические круги, бизнес и НПО, поднимают вопросы по возможному ограничению доступа МСП из развивающихся стран к инфраструктуре электронного бизнеса.

В январе 2019 г. 76 стран, включая США, ЕС, Китай и Россию, участвовали в разработке соглашения об электронной коммерции. Некоторые из обсуждаемых положений напрямую будут касаться развития мирового рынка технологий ИИ: доступ на рынки в сфере цифровой торговли, трансфер информации и данных, доверие и защита потребителей.

III. Активность глобальных компаний разработчиков ИИ

Глобальные корпорации не остаются в стороне от вопросов регулирования технологий ИИ. Мировые лидеры решений в области ИТ уделяют внимание, прежде всего, озабоченности общества последствиями внедрения технологий ИИ. Существующее у людей недоверие к ИИ может повлиять на публичный имидж компаний в случае непредвиденных значимых негативных последствий каких-либо технологических решений, а также побудить правительства к более жёсткому регулированию технологии и повлиять на баланс конкурентных преимуществ в мире. Фактически мы наблюдаем конкурентную борьбу за лидерство в продвижении образа ИИ как безопасной и позитивной технологии с долгосрочными преимуществами для глобального социально экономического развития. Для бизнеса становится очевидным, что прибыль и коммерческий успех компаний в области ИИ будет в значительной степени зависеть от создания модели управления, в которой важное значение придаётся профессиональной этике и добропорядочности при продвижении ИИ-продуктов на мировой рынок.

Alphabet (Google)

В статье CEO холдинга Alphabet (включает Google) (Pichai, 2020) предлагается прийти к соглашению об основных ценностях и принципах внедрения ИИ. В связи с доминантной позицией компаний холдинга Alphabet, предлагаемую модель можно рассматривать как приглашение к консолидации позиции частного ИТ-сектора по вопросам регулирования ИИ. Можно выделить следующие концептуальные элементы этой модели, которые требуют рассмотрения экспертами с точки зрения национальных интересов.

  • Предлагается руководствоваться фундаментальными ценностями и интересами общества, то есть отказаться от доминирования принципов рыночной конкуренции при определении развития ИИ. Такая позиция связана с необходимостью реагировать на обеспокоенность общества потенциальными негативными последствиями использования ИИ. При этом обозначена потребность «выравнивания» международных позиций по регулированию ИИ при лидирующей роли США и ЕС, включая соглашение о фундаментальных общественных ценностях. Кроме того, технология должна быть общедоступной и регулироваться принципами добродетели.
  • Опубликованные Google принципы ИИ обозначены как «помощь» в вопросах этического развития и использования технологий ИИ. Среди принципов выделены позитивные, такие как непредвзятость, тестирование на предмет безопасности, архитектура, обеспечивающая защиту персональных данных, подотчётность технологии людям. Также обозначены негативные принципы, т. е. отказ от участия в разработках, которые, например, нарушают права человека или ведут к массовому наблюдению за людьми.
  • Модель также предусматривает широкое внедрение инструментов контроля, среди которых отмечается инструментарий Google для тестирования ИИ на предмет справедливости и независимая оценка соответствия систем ИИ правам человека. Предполагается, что правительства должны, исходя из опыта защиты персональных данных, создать фреймворк для безопасности, объяснимости, справедливости и подотчётности систем ИИ, на основе которых будут в дальнейшем разрабатываться инструменты контроля.
  • При решении практических вопросов модель предлагает балансировать потенциальный ущерб в сравнении с социально-экономическим выигрышем от внедрения технологий ИИ. Предполагается, что государственное регулирование зафиксирует лишь общие руководящие принципы, в то время как их практическая реализация будет оставлена на усмотрение компаний, внедряющих решения ИИ в конкретных ситуациях соразмерно возможному ущербу.

Самым главным риском в вопросах регулирования ИИ обозначены упущенные возможности развития и экономического роста, которые должны реализоваться с помощью технологий ИИ и которые могут быть утеряны при неверном подходе к регулированию. Как отмечено выше, такая позиция широко представлена среди ИТ компаний и разработчиков.

IBM

В 2018 IBM опубликовал «Принципы доверия и прозрачности» (IBM, 2018) в которых декларируется подход, основанный на сохранении доверия клиентов посредством (i) соблюдения правила, в соответствии с которым ИИ дополняет интеллект человека, а не заменяет его; (ii) защиты клиентских данных и вытекающего из них знания; (iii) ответственного и прозрачного использования технологий ИИ и других меняющих жизнь инноваций. Компания также декларирует поддержку принципам ЕС и ОЭСР, в первую очередь с точки зрения прозрачности и доверенности систем ИИ.

Практический подход, предлагаемый IBM для всеобщего использования, ставит во главу угла полное раскрытие использования технологий ИИ с тем, чтобы заверить пользователей в справедливом и беспристрастном действии систем ИИ. Кроме того, IBM рекомендует прецизионное регулирование ИИ (precision regulation), под которым понимается целенаправленная политика ответственности компаний за доверенность разрабатываемых и используемых систем ИИ. При этом компания признает, что разнообразие в применении технологий ИИ обязательно приведёт к большому количеству правил, соответствующих конкретным практическим решениям. В связи с этим предлагается модель практического регулирования ИИ, основанная на управлении рисками при внедрении систем ИИ:

  1. Ответственность, пропорциональная возможному риску, включая непреднамеренный риск от использования ИИ и роли конкретной организации разрабатывающей, поставляющей или использующей ИИ решения.
  2. Прозрачность в использовании систем ИИ.
  3. Верификация и тестирование на предмет предвзятости перед внедрением систем ИИ, регулярное повторное тестирование, особенно при автоматическом принятии решений и применений в ситуациях с высокой степенью риска.

Такой подход в целом является детализацией принципа предосторожности и соответствует подходам, принятым ЕС, ОЭСР и другими международными организациями. Предлагаются также «императивы» для компаний, работающих над технологиями ИИ с целью реализации предложенной модели. Императивы представляют из себя своеобразный кодекс практики (code of practice) и по сути предлагаются для саморегулирования компаний:

  1. Назначить ответственного сотрудника по этике ИИ.
  2. Зафиксировать правила сообразно уровню риска от использования ИИ.
  3. Раскрывать информацию о каждом случае практического применения ИИ.
  4. Предусмотреть объяснимость решений ИИ в случаях возможных значимых последствий таких решений для физических лиц; раскрывать документацию об основных потребительских свойствах систем с использованием технологий ИИ.
  5. Тестировать системы ИИ на предмет предвзятости на протяжении всего жизненного цикла.

Кроме того, текущие документы IBM по теме регулирования ИИ содержат рекомендации для государств по регулированию ИИ, основанные на опросах общественного мнения о восприятии и рисках, связанных с новыми технологиями:

  • выбрать, или признать один из уже созданных механизмов международного регулирования ИИ для организации процесса стандартизации и регулирования ИИ с участием всех заинтересованных сторон;
  • поддержать создание и финансирование регуляторных «песочниц» как платформы для сотрудничества мультидисциплинарных интересов; предполагается, что такое мультидисциплинарное сотрудничество поможет ускорить формулировку и измерение показателей ИИ – точности, объяснимости, робастности, прозрачности, этики, приватности и безопасности;
  • создать инициативы для поставщиков и владельцев решений на основе ИИ с целью поощрить добровольное применение глобальных режимов стандартизации, сертификации и валидации; в качестве создания возможностей для такой инициативы предлагается предусмотреть режим ограничения ответственности за определенные риски для организаций, добровольно придерживающихся определенных глобальных практик.

Microsoft

В 2018 Microsoft опубликовал книгу «Просчитанное будущее: искусственный интеллект и его роль в обществе» (Microsoft, 2018), в которой изложил свое видение принципов, политики и законодательства относительно ответственного использования ИИ. Были сформулированы шесть принципов, которые в дальнейшем легли в основу политики Microsoft по «ответственному внедрению ИИ» (Microsoft, 2020):

  1. Справедливость. Системы ИИ должны принимать решения и действия, справедливые по отношению ко всем людям.
  2. Надёжность и безопасность.
  3. Защита частной жизни. Системы ИИ должны уважать и обеспечивать безопасность персональных данных.
  4. Инклюзивность. Системы ИИ должны предоставлять равные возможности для всех людей и вовлекать людей.
  5. Прозрачность. Решения и действия систем ИИ должны быть понимаемы.
  6. Ответственность. Алгоритмы систем ИИ должны предусматривать ответственность.

Также опубликован программный документ о реализации данных принципов в компании. Можно отметить, что, в отличие от других корпораций, Microsoft не выдвигает предложений по глобальному следованию своим принципам, документ сводится к информированию об организационных механизмах, реализованных в компании для соблюдения своих принципов.

Первым из механизмов является «офис ответственного ИИ» (Office of Responsible AI). Офис отвечает за реализацию принципов Microsoft на практике и включает в себя четыре ключевые функции:

  • внутренняя политика: установление общих организационных правил для реализации ответственного ИИ, а также определение ролей и обязанностей для команд, вовлечённых в эту работу;
  • обеспечение возможностей: обеспечение готовности к реализации ответственных методов ИИ, как внутри компании, так и среди клиентов и партнеров;
  • управление кейсами: обзор проблемных сценариев использования, чтобы обеспечить соблюдение принципов ИИ Microsoft в разработке и внедрении;
  • государственная политика: помощь в формировании новых законов, норм и стандартов, которые необходимы для обеспечения реализации перспектив технологии искусственного интеллекта на благо общества в целом.

Также в 2016 году был создан Комитет Aether (ИИ, Этика и Влияние на Разработку и Исследования – AI, Ethics, and Effects in Engineering and Research), который выполняет роль консультанта для высшего руководства компании по возникающим вопросам, проблемам и возможностям, связанным с развитием и внедрением технологий ИИ. Рабочие группы Aether служат центрами организации, планирования, разработки и использования ответственных технологий ИИ.

IV. Вопросы для обсуждения российским экспертным сообществом

1. Стратегические задачи

В качестве стратегической задачи речь может идти о реализации потенциала РФ в технологиях ИИ для достижения целей долгосрочного социально экономического развития, национальной безопасности и устойчивого международного развития. В этом смысле на основе зафиксированных в Национальной стратегии развития искусственного интеллекта положений целесообразно эффективнее продвигать российские подходы на международных площадках, предлагая практические научно выверенные концептуальные положения и методики, включая возможности по измерению эффективности и безопасности ИИ-систем. Это требует организованных систематических усилий экспертного сообщества по развитию наших концептуальных подходов и методической базы, применительно к ИИ, включая вопросы регулирования и стандартизации.

На данном этапе, когда, по сути, на мировых площадках наблюдается переход от базовых принципов к согласованию общей структурной и описательной модели систем ИИ, важным представляется вынести на международный уровень и отстаивать наше научное, концептуальное понимание природы ИИ, предложить мировому сообществу методически грамотный, консолидированный междисциплинарный подход к регулированию интеллектуальных систем на основе ИИ. Такие задачи возможно решить только за счёт скоординированных усилий инженеров-технологов, юристов, учёных в области математики, физики, информатики, философии, социальной психологии, медицины, других специалистов на стыке наук, включая исследователей в области природоподобных и NBIC-технологий.

2. Практические задачи

i. Согласование концепций и определений, используемых в описании систем ИИ, а также разработка методик по оценке показателей и индикаторов. Задачи стандартизации

Консенсус по основополагающей терминологии в области ИИ необходим для выстраивания дальнейшего взаимодействия между всеми участниками рынка решений ИИ внутри страны и на международном уровне. В последнем случае требуется более активное участие России в международной работе по стандартизации, как форме нормативно-технического регулирования (раздел II). Обобщая усилия и опыт различных организаций в части формирования концепции доверенного ИИ, нужно определить приоритеты вопросов стандартизации методов машинного обучения, оценки и измерения ИИ-систем, различных аспектов использования больших данных для ИИ, безопасности разработки и использования систем ИИ, защиты данных, в первую очередь персональных, в целом управления рисками для систем ИИ, по проблемам, связанным с предубеждениями и предвзятостью, этическим аспектам применения систем ИИ, по вопросам влияния ИИ на права человека.

В этой связи представляется также важным увеличить объем российских публикаций в профессиональных и специализированных международных изданиях, что способствовало бы повышению авторитета национальной науки и полноценному участию России в мировом «клубе первооткрывателей и идеологов» применительно к области ИИ.

Ключевой задачей представляется отразить интересы РФ в формировании общепринятой международной концептуальной базы и этических оценок практического применения ИИ. В первую очередь необходимо сохранить пространство для формирования суверенной национальной политики по этим вопросам, развивая партнёрские связи для поддержки и реализации национальных приоритетов РФ на международных площадках, при учёте глобальных подходов и тенденций.

ii. Определение сфер и методов регулирования, категорирование систем

Первоочередной практической задачей представляется решение вопроса – подлежит ли конкретное технологическое решение/система регулированию как технология ИИ и каким образом – законодательным, нормативно-техническим (посредством национальных стандартов), инструментами мягкого права, путём саморегулирования. Полагаем, что оправданным является применение поэтапного механизма регулирования, основанного на рискоориентированном подходе – т.е. на начальном этапе переход к определённым законодательным требованиям и процедурам в зонах особого риска и дальнейшее совершенствование инструментов, которое будет основано на комплексном анализе карты угроз и рисков, доказательной базе, результатах широких опросных кампаний и реальных прецедентах.

Представляется, что в рамках задач по категорированию систем можно рассмотреть и вариант, основанный на выделении двух групп признаков:

  • достаточные признаки; при наличии одного или более признаков, система регулируется как технология ИИ;
  • необходимые признаки; при отсутствии хотя бы одного из необходимых признаков, система не регулируется как технология ИИ.

При этом для решения задач категорирования уместно бы было находить согласие (консолидированные оценки квалифицированных экспертов) в том числе и на основе конкретных, практических иллюстраций и примеров – условно: «широко используемые системы А, B, C не являются системами ИИ; системы D, E, F можно отнести к системам ИИ». Возможно, что при таком подходе будет проще достичь смыслового и технического консенсуса по признакам систем ИИ, чем прийти к какому-либо удовлетворительному, устойчивому и универсальному определению для ИИ. Кроме того, как представляется, ввиду сложности достижения консенсуса по всеобъемлющей дефиниции, возможно, имеет смысл разрабатывать и согласовывать формулировки под целевое назначение термина – для правового регулирования, для проектирования и стандартизации, для коммерциализации продуктов, под задачи исследований в области когнитивных способностей и развития философских знаний.

iii. Конкретизация применительной практики по регулированию ИИ на международном уровне

Целый спектр понятий в описании технологий ИИ на базовом уровне определены размыто, неточно, либо на общебытовом уровне, что потенциально открывает возможности для злоупотребления практикой применения, получения отдельных конкурентных преимуществ и т.д. Например, вопросы определения «общественных интересов», «благополучия» в их применении к ИИ допускают широкую интерпретацию, что было ярко продемонстрировано кампанией по борьбе с «фейковыми новостями».

Весьма вероятно, что многие из этих понятий не могут быть определены абстрактно, «в общем», без привязки к контексту специфического использования технологий ИИ и конкретной предметной области. Во многом такие вопросы могут быть рассмотрены на уровне практики применения, где необходимо обеспечить реальные механизмы ответственности за возможные злоупотребления или технологические недоработки. Не следует забывать и уже существующие международно-признанные нормы и стандарты, применяемые к информационным системам и информационно-коммуникационным технологиям, которые могут и должны быть учтены при разработке новых положений для систем ИИ.

iv. Работа по формированию позитивной повестки при внедрении технологий ИИ

Вследствие широкого освещения проблем ИИ в СМИ возник целый ряд дискуссионных вопросов и противоречий, которые могут негативно влиять на общий климат взаимодействия по тематике ИИ. Эффективная работа по регулированию ИИ, вероятно, требует лидерства в формировании позитивной повестки дня в обществе и на международном уровне. Можно отметить следующие моменты.

  • создание благоприятной среды для международного взаимодействия в науке и образовании. Примером можно считать предложение отказаться от практики односторонних ограничений на университетское сотрудничество по технологиям ИИ, обмены ученых и студентов без национальных ограничений;
  • благоприятная среда для предпринимательской активности в технологиях ИИ, поддержка создания добавленной стоимости через технологии ИИ, защита экспорта, интеллектуальной собственности, технологическая кооперация и импорт критических технологий, содействие высокорисковому финансированию для проектов по тематике ИИ. Активное участие в готовящихся соглашениях по вопросам регулирования электронной коммерции и трансфера данных, что напрямую отражается на конкурентоспособности компаний сферы ИИ;
  • адаптация общественного восприятия к широкому внедрению технологий ИИ, повышение цифровой грамотности, развитие цифровых навыков, формирование позитивного образа ИИ в РФ. Необходимы усилия по де-мистификации современного понимания ИИ, демонстрация позитивных и социально-полезных технологических решений, в т.ч. для более широкого класса повседневных задач.

Центральные вопросы, требующие позиции РФ на международных площадках

Несмотря на большое разнообразие вопросов, рассматриваемых как на межправительственных, так и на экспертных форумах, посвящённых регулированию ИИ, следующие темы представляются центральными (общими) и наиболее актуальными для решения практических задач. Реализация стратегических целей РФ в сфере ИИ требует ясной позиции по каждому из перечисленных вопросов.

  1. Конкретизация понятийной базы технологии ИИ и, как следствие, целей и задач различных форм регулирования (конвенции, хартии, кодексы, договоры, рекомендации, стандарты и т.п.). Конкретизация и согласованный подход к этапности регулирования, общее понимание обоснованной карты рисков.
  2. Этика и права человека применительно к технологиям ИИ. Вопрос имеет далеко идущие последствия, поскольку может транслироваться в регулирующие действия на международных рынках. Такие действия при этом могут быть основаны в т.ч. и на произвольной интерпретации недостаточно выверенных и нечётко сформулированных базовых концепций. Для приоритетных и наиболее активно разрабатываемых применений систем ИИ желательно иметь ясное формулировку того, что «нельзя», «можно» и «необходимо» для систем ИИ, которые считаются соответствующими этике и правам человека. Формирование согласованного философского базиса (платформы) применительно к вопросам развития ИИ позволит выстраивать устойчивое «здание», где будет ясно определено место понятиям, входящим в сферу этики. Заметим, что в ряде областей, таких, например, как медицина, биотехнология, педагогика и др. роль профессиональной этики весьма значима – применительно к ряду вопросов ИИ можно использовать уже выработанные человечеством опыт и знания.
  3. Вопрос соблюдения общественных интересов на основе принципа предосторожности или баланс известных преимуществ, недостатков/рисков и возможностей использования систем ИИ. Потенциально отказ от принципа предосторожности может привести к невозможности возложить ответственность на глобальные корпорации за непредвиденные последствия широкого внедрения решений ИИ. Вопросы ответственности за ущерб, например, в случае использования ИИ в системах управления также могут иметь чрезвычайно значимые социально-экономические последствия.
  4. Вопросы измерения и сравнимости систем ИИ (в заданном операционном контексте и предметной области) также будут иметь определяющее значение для будущего рынка и конкурентоспособности систем ИИ. Вопрос разработки методик измерения различных параметров и характеристик систем ИИ, начиная с базового уровня фиксации таких параметров в определённом контексте и среде (экосистеме), будет одним из определяющих моментов присутствия, влияния и перспектив РФ на глобальных рынках интеллектуальных систем и робототехники.

Библиография

Accenture Future of AI economic Growth [Отчёт] – 2018.

IBM IBM’s Principles for Trust and Transparency [Отчёт] : IBM, 2018.

Kuziemski Maciej Precautionary approach to AI [Отчёт] : Project Syndicate, 2019.

Microsoft Microsoft AI principles – 01.02.2020 г.

Microsoft The Future Computed: Artificial Intelligence and its role in society [Книга] – Redmond : Microsoft, 2018.

OECD OECD Council Recommendation on Artificial Intelligence [Отчёт] – 2019.

OECD Principles for responsible stewardship of Trustworthy AI [Отчёт] – 2019.

Pichai Sundar Opinion: Why Google thinks we need to regulate AI [Отчёт] / Financial Times – 2020.

UNESCO 40-я сессия Генеральной конференции – ноябрь 2019 г.

UNESCO Artificial intelligence for Sustainable Development: synthesis report, Mobile Learning Week 2019 – 2019 г.

UNESCO Artificial intelligence in education, compendium of promising initiatives: Mobile Learning Week 2019 – 2019 г.

UNESCO Beijing Consensus on Artificial Intelligence and Education – 2019 г.

UNESCO From Internet Universality to ROAM-X Indicators – 2019 г.

UNESCO Steering AI and Advanced ICTs for Knowledge Societies [Отчет] – Paris : UNESCO, 2019.

UNESCO ИИТО ЮНЕСКО на Неделе мобильного обучения 2019 – март 2019 г.

UNESCO Планирование образования в эпоху ИИ: задать направление технологическому прорыву // Международная конференция по искусственному интеллекту и образованию – май 2019 г.

UNESCO Принципы ИИ: в направлении гуманистического подхода // Конференция ЮНЕСКО – 4-5 март 2019 г.

United Nations Report of the Special Rapporteur to the General Assembly on AI and its impact on freedom of opinion and expression [Отчет] : United Nations, 2018.

WIPO WIPO Technology Trends 2019: Artificial Intelligence [Отчёт] : WIPO, 2019.

WTO World Trade Report 2018. The future of world trade: How digital technologies are transforming global commerce [Отчет] – Geneva : WTO, 2018.

WTO World Trade Report 2019. The future of services trade [Отчёт] – Geneva : WTO, 2019.

Европейская Комиссия A definition of AI: Main capabilities and scientific disciplines [Отчёт] – 2019.

Европейская Комиссия Artificial Intelligence for Europe [Отчёт] – 2018.

Европейская Комиссия Building Trust in Human-Centric Artificial Intelligence [Отчёт] – 2019.

Европейская Комиссия Ethics Guidelines for Trustworthy AI [Отчёт] – 2019.

Европейская Комиссия Policy and Investment Recommendations for Trustworthy AI [Отчет] – 2019.

Международная Организация Стандартизации SC42

Постоянный представитель России при ЮНЕСКО Российские эксперты приняли участие в конференции ЮНЕСКО по искусственному интеллекту – июль 2019 г.

Совет Европы Declaration by the Committee of Ministers on the manipulative capabilities of algorithmic processes [Отчёт] – 2019.

Совет Европы Guidelines on Artificial Intelligence and Data Protection [Отчёт] – 2019.

Совет Европы Study on the human rights dimensions of automated data processing techniques and possible regulatory implications [Отчёт] – 2017.

Совет Европы Unboxing Artificial Intelligence: 10 steps to protect Human Rights [Отчёт] – 2019.

[1] В данном контексте: с точки зрения информатики под алгоритмом понимается абстрактное, формализованное описание вычислительной процедуры [Dourish 2016, p. 3 – Algorithms and their others: algorithmic culture in context, Big Data & Society]

Следите за нашим Телеграм-каналом, чтобы не пропускать самое важное!

Поделиться: