Европейский подход к искусственному интеллекту: этика во-первых, закон во-вторых

1204

Под «искусственным интеллектом» (ИИ) здесь и далее будем понимать современную фазу развития информационных технологий, когда самообучающиеся машины применяют в таких сферах деятельности, где человек, казалось бы, незаменим.

Пока ИИ «учился» играть в шахматы, распознавал символы и пытался пройти тест Тьюринга, регулировать ИИ было незачем. Иное дело теперь, когда дошло до отчуждения и неконтролируемой обработки персональных данных, угрозы массовой безработицы, систем автоматической диагностики рака и, главное, «автономных» систем вооружений.

«Центры силы» ИИ

Разные страны придерживаются в отношении ИИ разных стратегий. Общее только то, что в области ИИ-технологий все хотят если не лидировать, то хотя бы не отстать.

«Центров силы» три. Главный – Америка, которая к настоящему времени нечувствительно превратила остальной мир, включая Европу, в IT-колонии. Если не доказательством, то иллюстрацией этого утверждения может служить тот факт, что ни у одной страны ЕС нет своей поисковой машины, способной конкурировать с Google (чехи с Seznam держались довольно долго, но в конце концов и они уступили). Имеет смысл также обратить внимание на то, кому принадлежит мировой рынок настольных и мобильных операционных систем.

Для США лидерство в области ИИ-технологий безальтернативная цель – технологическое превосходство в этой стране всегда было национальной идеей. Достижение этой цели ухудшит и без того сложное геополитическое положение России.

Китай. Иероглифическое письмо ли послужило защитой от экспансии, превосходство ли культуры старейшей на планете цивилизации, мудрость ли китайских политиков – неважно, важен результат: сегодня Китай колонизирован не столь безнадёжно, как Европа, и может противостоять США в гонке ИИ-технологий.

Европа. Своё зависимое IT-положение она осознаёт (стремление к свободе охотнее других по обыкновению демонстрируют французы) и пытается с ним справиться, как умеет. А умеет лучше всего бюрократически. Грандиозные штрафы для Microsoft и Google за нарушение антимонопольных законов ЕС, отказ от соглашения о «тихой гавани», недавно вступивший в силу GDPR – всё это антиколониальное движение. Принцип «соблюдайте наши законы, не то заставим по суду» достаточно эффективен, он совершенствуется и будет применяться Европой впредь.

Остров относительной свободы
Надо упомянуть для полноты картины ещё и Британию. Там с давних пор IT-дела обстоят неплохо, вспомним Тьюринга. Страна в использовании информационных технологий самостоятельна – настолько, что эта самостоятельность местами напоминает возведение стены на границе. Не по китайской, конечно, модели, но тем не менее – принцип «сделаем сами и по-своему» прослеживается во всём, от электронного правительства до информационной госбезопасности. 

Россия: не в ЕС, но в Европе

Россию в «центры ИИ-силы» записывать нельзя (так, доля нашей страны на мировом рынке ПО составляет 1,5%), что, впрочем, технологической самостоятельности до конца не отменяет. Внутренний рынок неплохо обеспечен отечественными онлайн-сервисами, а инженерная культура, вероятно, достаточна для создания собственных эффективных ИИ-систем.

В связи с регулированием ИИ нашей стране имеет смысл смотреть по сторонам: с кем и в каком деле объединиться, чей опыт счесть подходящим. В этом смысле перспективны, очевидно, Китай и ЕС.

Китайская стратегия в отношении IT вообще и ИИ в частности России не подходит. Ничего аналогичного «великому китайскому файрволу» в России нет (например, «чёрные списки» Роскомнадзора формирует не государство, а суды, и это не единственное принципиальное отличие в методах регулирования). Главное же внутренняя политика. Россия последовательно пытается вывести из-под контроля компаний персональные данные своих граждан, и не для того, чтобы забрать эти данные себе. Один из многих примеров – отклонение президентом одобренного Совфедом закона о создании базы данных о российских школьниках. Это явно не китайский путь. Учиться у Китая государственной воле при исполнении национальных технологических проектов – дело нужное, однако другое.

Остаётся Европа. Её подход к регулированию ИИ, как будет ясно из дальнейшего, действительно нам подходит: европейцы не игнорируют этические (моральные) проблемы ИИ, напротив, они официально объявляют о намерении их решать. Мартовское европейское «Заявление об искусственном интеллекте, робототехнике и автономных системах» официально провозглашает: важны не столько технические задачи (делать компьютеры быстрее, лучше, дешевле), сколько гуманитарные проблемы, которые программистам не под силу и для решения которых надо звать, как это ни противно, гуманитариев, а то и политиков.

Что Европа думает об ИИ

Приводим максимально краткое изложение основных положений упомянутого 24-страничного документа (не все примеры и аналогии, поясняющие суть дела, взяты из источника).

Основные проблемы – пока что потенциальные – связанные с будущим распространением ИИ, по мнению авторов отчёта, таковы.

Непонимание, как именно работает ИИ – а такое непонимание закономерно возникает, едва только машина становится самообучаемой – чрезвычайно опасно.

«Перекладывание вины» на компьютер происходит сплошь и рядом уже теперь, например, орфографическую ошибку можно свалить на спелл-чекер. Даже математики подчас бездумно доверяют расчётам специальных программ, аргументируя в стиле «так компьютер показал». В случае с ИИ, механизм работы которого неизвестен, такой подход способен привести к последствиям, по-настоящему непредсказуемым (беспилотные автомобили, медицинская диагностика, оружие).

Следовательно, «автономность» ИИ-систем – фикция. Человек не может быть свободен от ответственности за то, что сделала построенная им машина. Сам термин «автономность» в философии обозначает способность людей принимать нормы, правила поведения, законы. В этически значимом смысле он неприменим к машинам.

Псевдоинтеллектуальное поведение машин, внешне неотличимое от человеческого, позволяет «включить» ИИ для манипулирования большими массами людей. Это безнравственно: машина не может управлять человеком.

«Скоринг», оценка с помощью ИИ «ценности» каждого члена общества (уместно в этой связи ещё раз вспомнить о не удавшейся, к счастью, попытке создать в России базу данных «Контингент обучающихся»). Если скоринг восторжествует (а это более чем вероятно – примеры неверного обучения нейросетей на тенденциозно подобранных больших данных уже есть), о равенстве, не говоря уж о братстве, можно будет забыть. Свобода же останется только та, что описана Лемом в 24-м путешествии Йона Тихого (на планету индиотов, которые построили «Новые Машины» и отдали ИИ власть над собой), и сведётся к «свободе» умереть.

Что не поздно сделать

Рекомендации Еврокомиссии, содержащиеся в «Заявлении об искусственном интеллекте, робототехнике и автономных системах», лежат исключительно в гуманитарной области.

Прежде всего – запрет создания автономного ИИ-оружия. Человечество способно сдерживать распространение ядерного оружия и запретить химическое, но едва ли будет возможно ограничить расползание ИИ-оружия, самостоятельно принимающего «решение» об убийстве людей. Риск того, что разработка и производство «автономного» ИИ-оружия переместятся «в регионы с низкими этическими стандартами» («покупка этики», как было, например, в случае с обходом запрета пыток на территории США – спецслужбы пытали подозреваемых в самолётах или в других странах), чрезвычайно велик.

Сначала этические нормы, потом обязывающий закон

ЕС предлагает для предотвращения грозящей опасности обеспечить следующее.

Человек всегда должен знать, с кем он взаимодействует – с роботом или другим человеком. Сейчас это не так. Часто мы не знаем, например, кто находится по ту сторону чата в банковском приложении – бот или сотрудник банка.

Нужна «общая этическая основа для ИИ, робототехники и автономных устройств», которая побудила бы законодателя закрепить моральные, этические принципы в обязательном праве. Такая основа предложена в виде десяти этических принципов разработки и применения ИИ-систем.

Европейские принципы «этичного и демократичного» использования ИИ
Этические принципы, соблюдение которых необходимо при создании и применении ИИ-систем, в документе сформулированы так.

Человеческое достоинство

Принцип человеческого достоинства, понимаемый как признание присущего человеку состояния достойного уважения, не должен нарушаться «автономными» технологиями. Это означает, например, что существуют ограничения для определений граждан и их классификаций, созданных на основе алгоритмов и «автономных» систем, особенно, когда тем, кого они затрагивают, не сообщают о них. Это подразумевает, что должны быть (юридические) ограничения на то, каким образом людей можно заставить поверить в то, что они имеют дело с людьми, в то время как на самом деле они имеют дело с алгоритмами и умными машинами.

Автономность

Принцип автономности подразумевает свободу человека. Это означает ответственность человека и, таким образом, контроль «автономных» систем и знание о них, поскольку такие системы не должны наносить ущерб свободе людей, предполагающей возможность устанавливать свои собственные стандарты и нормы и жить в соответствии с ними. Таким образом, все «автономные» технологии должны уважать способность человека выбирать, когда и как делегировать им решения и действия. Это также подразумевает прозрачность и предсказуемость «автономных» систем, без которых пользователи не смогут вмешиваться или прекращать их действия, если они считают это морально необходимым.

Ответственность

Основополагающий принцип исследования и применения ИИ. «Автономные» системы должны разрабатываться и использоваться таким образом, чтобы служить глобальному социальному и экологическому благу, определяемому результатами совещательных демократических процессов. Это означает, что они должны быть спроектированы таким образом, чтобы их последствия соответствовали множеству фундаментальных человеческих ценностей и прав. Поскольку потенциальное злоупотребление «автономными» технологиями представляет собой серьёзную проблему, важно осознать риск и использовать предупредительный подход. Применение ИИ и робототехники не должно создавать неприемлемых рисков для здоровья людей, не компрометировать свободу и автономию человека путем незаконного и тайного сокращения возможностей и знаний граждан.

Исследования, проектирование и разработка ИИ, робототехники и «автономных» систем должны основываться на подлинной заботе об этике исследований, социальной ответственности разработчиков и глобальном академическом сотрудничестве.

Правосудие, справедливость и солидарность

ИИ должен способствовать глобальному правосудию и равному доступу к выгодам и преимуществам, которые могут принести технологии ИИ, робототехника и «автономные» системы. Дискриминационные предубеждения в наборах данных, используемых для обучения и запуска систем ИИ, должны быть предотвращены или обнаружены и нейтрализованы на самой ранней стадии.

Необходимо проявлять бдительность в отношении недостатка подробных и больших массивов данных о людях, которые накапливаются и которые будут оказывать влияние на идею солидарности, например, системы взаимопомощи, такие как социальное страхование и здравоохранение. Эти процессы могут подорвать социальную сплочённость и привести к радикальному индивидуализму.

Демократия

Основные решения по регулированию развития и применения ИИ должны быть результатом демократических дискуссий и участия общественности.

Ключевое значение для наших демократических политических систем имеет плюрализм ценностей, разнообразие и учёт различных концепций улучшения жизни граждан. Они не должны подвергаться опасности, подрываться или уравновешиваться новыми технологиями, которые препятствуют или влияют на принятие политических решений и нарушают свободу выражения мнений и право на получение и передачу информации без вмешательства. Цифровые технологии, скорее, следует использовать для применения коллективного интеллекта, поддержки и улучшения гражданских процессов, от которых зависят наши демократические общества.

Верховенство закона и подотчётность

Верховенство закона, доступ к правосудию, право на возмещение ущерба и справедливое судебное разбирательство обеспечивают необходимую основу для соблюдения стандартов в области прав человека и потенциальных конкретных требований к ИИ. Такой подход включает в себя защиту от рисков, связанных с «автономными» системами, которые могут нарушать права человека, такие, как безопасность и неприкосновенность частной жизни.

Весь комплекс возникающих правовых проблем должен решаться своевременными инвестициями в разработку надёжных решений, обеспечивающих справедливое и ясное распределение обязанностей и эффективные механизмы обязательного права.

Защита, безопасность, физическая и психическая неприкосновенность

Охрана и безопасность «автономных» систем реализуется в трёх формах:

  • внешняя безопасность для окружающей среды и пользователей;
  • надёжность и внутренняя прочность, например, против взлома;
  • эмоциональная безопасность в отношении взаимодействия человека и машины.

Все аспекты безопасности должны быть приняты во внимание разработчиками ИИ и строго проверены перед выпуском «автономной» системы.

Следует уделять внимание возможности двойного использования ИИ и использования его в военных целях.

Защита данных и конфиденциальность

В эпоху вездесущего и массового сбора данных с использованием цифровых коммуникационных технологий право на защиту личных данных и право на неприкосновенность частной жизни подвергаются критическим испытаниям. Физические роботы, IoT, а также системы ИИ, работающие через WWW, должны соответствовать правилам защиты данных, а не собирать и распространять данные или использовать наборы данных, для использования и распространения которых не получено согласие.

«Автономные» системы не должны препятствовать праву на частную жизнь, которое включает в себя право быть свободным от технологий, влияющих на развитие личности и мнения, право устанавливать и развивать отношения с другими людьми и право на свободу от наблюдения. Также в этом отношении должны быть определены точные критерии и установлены механизмы, обеспечивающие этическое развитие и этически правильное применение «автономных» систем.

В свете проблем, связанных с последствиями применения «автономных» систем в отношении частной жизни и неприкосновенности частной жизни, может быть рассмотрено продолжающееся обсуждение вопроса о введении двух новых прав: право на конструктивный контакт с людьми и право не подвергаться профилированию, измерению, анализу, воспитанию или подталкиванию (манипулированию).

Устойчивость

Применение технологии ИИ должно соотноситься с уровнем человеческой ответственности за обеспечение основных предпосылок для жизни на нашей планете, дальнейшего процветания человечества и сохранения благоприятной окружающей среды для будущих поколений. Стратегии предотвращения пагубного воздействия технологий будущего на жизнь и природу человека должны основываться на политике, обеспечивающей приоритет охраны окружающей среды и её устойчивости.

ИИ, робототехника и «автономные» системы могут принести процветание, способствовать благополучию и достижению европейских моральных идеалов и социально-экономических целей, если они будут разработаны и развернуты с умом. Этические соображения и общие моральные ценности могут быть использованы для формирования мира завтрашнего дня и должны толковаться как стимулы и возможности для инноваций, а не препятствия и барьеры.

Европейская группа экспертов призывает ЕК изучить, какие правовые инструменты имеются в наличии для эффективного решения проблем, обсуждаемых в этом заявлении, и необходимы ли новые инструменты управления и регулирования.

Европейская группа экспертов призывает к запуску процесса, который прокладывает путь к общей, международно-признанной этической и правовой основе для проектирования, производства, использования и управления ИИ, робототехникой и «автономными» системами. 

Резюме

Этика, мораль, нравственность служат ориентирами для тех, кто разрабатывает и принимает законы, а закон хорош в той мере, в какой он принуждает к соблюдению нравственных норм. Можно вспомнить в этой связи, например, как Фёдору Плевако удавалось в суде выигрывать очевидно безнадёжные дела, апеллируя не к закону, а непосредственно к нравственным нормам. Поэтому подход ЕС к регулированию ИИ-технологий с позиций морали вызывает уважение.

Пересмотр принципа «человек есть мера вещей» только потому, что появились вещи, внешне похожие на человека – в частности, способные пройти тест Тьюринга – означал бы скорое перерождение, а то и вырождение человечества.

Риски использования ИИ, как и всякой выдающейся технологии, значительны, однако соблазнительное представление о том, будто ответственность за эти риски лежит не на человеке, что ИИ есть стихия, порождённая человеком, но неуправляемая им – аморально.

Таковы европейские (читай: христианские) представления о том, как и зачем следует регулировать ИИ-технологии.