Скандал с утечкой данных из Facebook в Cambridge Analytica подчёркивает необходимость регулирования сферы искусственного интеллекта, считают в комитете по искусственному интеллекту (ИИ) палаты лордов (верхняя палата парламента Великобритании), пишет The Guardian.
Британия должна лидировать в области регулирования ИИ и впредь не допускать, чтобы такие компании, как Cambridge Analytica, создавали прецеденты опасного и неэтичного использования технологии, считает глава комитета Клемент-Джонс (Clement-Jones).
Комитет опубликовал пять рекомендаций, они же этические принципы, которые, по словам лорда, должны применяться в разных секторах, на национальном и международном уровнях:
- ИИ должен развиваться для общего блага и пользы человечества;
- использование ИИ должно опираться на ясное понимание [того, как ИИ работает,] и добросовестность;
- ИИ не должен быть использован для нарушения цифровых прав или тайны частной жизни отдельных лиц, семей или социальных групп;
- граждане должны иметь право на образование, чтобы развиваться умственно, эмоционально и экономически одновременно с развитием ИИ;
- автономные системы, направленные на причинение вреда, уничтожение или обман людей, никогда не должны обладать ИИ.
Цель, по мнению британских лордов, состоит не в том, чтобы вписывать эти принципы непосредственно в законодательство, а, скорее, в том, чтобы они служили в качестве «маяка» для регулирования ИИ. «Например, в области финансовых услуг регулятор будет наблюдать, как страховые компании используют алгоритмы для оценки возмещений, как банки принимают решение о выдаче ипотечных кредитов и т.д.».
«Регуляторы должны установить связь с этическими принципами», — сказал Клемент-Джонс.
Издание также упоминает опубликованный в понедельник доклад комитета «ИИ в Великобритании: готовы, хотим и способны?», в котором описывается ряд угроз. Одна из проблем заключается в создании крупными транснациональными компаниями «монополий данных». Речь, в частности, об американских и китайских компаниях, таких, как Facebook, Google и Tencent. Они могут обладать контролем над большими данными и создавать более совершенный ИИ, чем кто-либо другой, что приводит к неспособности небольших компаний и стран с ними конкурировать.
В докладе комитет призывает к предотвращению создания монополий данных и рекомендует управлению по конкуренции и рынкам активно прорабатывать вопросы потенциальной монополизации [рынка больших] данных крупными технологическими компаниями, действующими в Великобритании.
В этой связи уместно напомнить о трёх законах робототехники Айзека Азимова (в 1942 году, когда Азимов формулировал эти законы, термин «ИИ» ещё не вошёл в обиход, однако азимовский робот несомненно обладает тем, что теперь называют искусственным интеллектом):
1. Робот не должен причинять вред человеку или допускать, чтобы что-то другое причинило человеку вред.
2. Робот должен исполнять приказы человека, если эти приказы не противоречат первому закону робототехники.
3. Робот должен заботиться о собственной безопасности в той мере, в какой это не противоречит первым двум законам робототехники.