НТЦ «Главного радиочастотного центра» опубликовал во вторник отчёт «Риски и угрозы использования технологий ИИ в рекомендательных сервисах».
Ценность документа (150 страниц) заключается, на наш взгляд, прежде всего в обширных фактических сведениях об угрозах, которые несут современные рекомендательные сервисы, и о методах преодоления этих угроз. Предпринята небесполезная попытка классификации того и другого, эта классификация отражена в структуре текста.
Авторы отчёта относят рекомендательные системы «к системам поддержки принятия решений». Такие системы предугадывают, развивают, направляют и модифицируют желание пользователя, разыскивающего (потребляющего) информацию в Сети.
Информация эта в простейшем случае относится к товарам онлайн-магазинов, тут смысл применения рекомендательных систем понятен. Но простейшими случаями дело не ограничивается. Рекомендательные системы в силу их способности эффективно манипулировать людьми чрезвычайно опасны во всех сферах человеческой деятельности.
Попытаемся обратить внимание читателя на основные положения отчёта, а также на вытекающие из этих положений выводы.
«Гиперперсонализация»
ИИ привнёс в рекомендательные системы возможность тонко подстраивать поисковую выдачу, рекламу, сопутствующие материалы, развлекательный контент, СМИ и проч., и проч. под отдельно взятого человека. Авторы используют термин «гиперперсонализация», определяя его как персонализацию информации с использованием возможностей ИИ для сбора и анализа большого объёма данных о пользователе, в том числе данных, получаемых в реальном времени с его цифровых устройств и устройств, подключённых к Интернету вещей (IoT).
Возможности для манипуляций, достигаемые гиперперсонализацией, грандиозны. Нейронным сетям доступно даже распознавание наших эмоций – по мимике, интонации, сигналам от носимых устройств и от устройств IoT.
Угрозы
Гиперперсонализация в рекомендательных системах может быть использована в качестве оружия. Рекомендательные системы, владеющие большими данными о каждом человеке, в сочетании с ИИ «способны приводить к увеличению ненависти и вражды между отдельными общностями и социальными группами».
Это не абстрактное суждение, ситуация уже стала критической: каждый двадцатый пользователь Интернета в России включён в асоциальные неформальные сообщества, сообщается в отчёте.
Зарубежные цифровые платформы активно сотрудничают со спецслужбами, в чём после Сноудена сомневаться неприлично. Спецслужбы и сами, без посторонней помощи, способны изучить и использовать в своих целях механизм работы отечественных платформ. Как следствие, «политические взгляды перестают быть продуктом свободного выбора и рационального анализа».
Эти угрозы – социально- и военно-политические – авторы отчёта рассматривают в конце соответствующего раздела, постепенно подводя к ним читателя. До этого описываются угрозы и риски психологические и социальные. Нынешние вычислительные системы вместо того, чтобы стать усилителями интеллекта, становятся его протезом, ослабляя наши способности к самостоятельному анализу и конструктивному социальному поведению. Сегодня усреднённый пользователь Интернета не в состоянии держать концентрацию дольше 10-15 минут – что рекомендательным системам и требуется.
Также приводятся подробные и весьма любопытные сведения об угрозах экономических. В частности, смартфоны, с которыми мы не расстаёмся и которые благодаря рекомендательным системам держат нас в персональном информационном пузыре, крадут у продуктивного труда пугающе много времени: в России 23% сотрудников компаний по личным делам ежедневно проводят онлайн более двух часов.
НПА-регулирование
Поиск ответа на вопрос «что со всем этим делать» в отчёте логично начат с анализа зарубежного опыта нормативно-правового регулирования. Рассматривается опыт США, Великобритании, Евросоюза и Китая.
Регулирование ИИ и рекомендательных систем не разделяется. НПА, посвящённые и тому, и другому, приводятся вместе. Ясно, что ИИ применяется далеко не только в рекомендательных системах, однако рекомендательных систем без использования ИИ уже не осталось, так что авторов отчёта можно понять.
Без подробностей (они полно представлены в отчёте) картина такова.
США децентрализовали правовое регулирование ИИ, федеральных законов о регулировании рекомендательных систем нет, ставка сделана на снятие ограничений для развития бигтеха, саморегулирование отрасли и экспансию американских отраслевых стандартов по всему миру. С избранием Трампа этот подход существенно усилился, особенно в военной сфере.
Великобритания, напротив, «выстроила строгую систему [нормативно-правового] регулирования рекомендательных алгоритмов», сказано в отчёте.
Схожая ситуация и в Евросоюзе – у Еврокомиссии обширные, комплексные, продуманные полномочия для надзора за цифровыми платформами. Как и в Великобритании, отдельная проблема заключается в контроле исполнения законов.
Китай тоже принял комплексные законы для регулирования рекомендательных систем. Цель – всеобъемлющий государственный контроль над информационным пространством страны с упором на предотвращение любых социально-политических рисков.
См. также:
- Стратегия Совета Европы в отношении искусственного интеллекта
- Развитие искусственного интеллекта в странах мира: США, Китай, Великобритания
Как обеспечить действенность НПА-регулирования
Весьма информативная и самая обширная часть отчёта посвящена «опыту снижения рисков и нивелирования угроз», т.е. методам проверки и контроля рекомендательных систем на предмет соблюдения ими законов и регулирующих НПА.
Диапазон таких методов широк, от реинжиниринга кода рекомендательных систем до наблюдения за ними как за «чёрными ящиками». Применяется и внешнее воздействие на рекомендательные системы, а именно – по принципу «с роботами должны бороться роботы» корректируются навязываемые пользователю рекомендации («ленты» рекомендаций), например, посредством браузерных расширений, замечающих навязываемый контент.
По прочтении этой части отчёта складывается впечатление, во-первых, о наличии большого количества разнообразных и развитых методов наблюдения за рекомендательными системами, а также о сложности таких методов — и как как самих по себе, и в применении. По сути, здесь мы имеем обширную область для прикладной науки.
Во-вторых, и это главное: наиболее эффективный путь состоит в том, чтобы рекомендательные сервисы были юридически обязаны дать пользователю возможность ограничить их влияние, вплоть до отключения. Наличие такой возможности регулятору легко контролировать, а у пользователя появляется возможность применять поисковые системы без того, чтобы последние занимались самоуправством, т.е. «гиперперсонализацией».
В-третьих, пользователя надо просвещать на предмет информационной гигиены. Это нетривиальная, но необходимая задача. Точно такая же задача стояла, заметим, в случае обычной гигиены – для того, чтобы люди стали пользовались мылом, потребовалась настойчивая пропаганда.
Что делать России
В нашей стране с октября 2023 года действует закон о регулировании рекомендательных интернет-технологий. Базирующееся на этом законе регулирование «ограничивается минимальным количеством требований к информационным ресурсам, на которых применяются соответствующие технологии», констатируется в отчёте. Эти требования, отметим, описаны к тому же в самом общем виде, что существенно затрудняет контроль их соблюдения.
Среди рекомендаций авторы отчёта называют, в частности, создание реестра рекомендательных систем, доступ к которым в течение суток составляет более ста тысяч пользователей на территории Российской Федерации; фильтрацию и исключение приоритезации деструктивной информации при предоставлении информации с применением рекомендательных технологий; внедрение в процесс разработки и эксплуатации крупных цифровых платформ установленных государством обязательных технических методов смягчения [названных выше] угроз; специальные меры защиты несовершеннолетних от влияния рекомендательных систем; механизмы «антикризисного переранжирования информации» [поступившей из рекомендательных систем]; и другие.
Авторы отчёта упоминают также об экспорте китайских технологий контроля киберпространства, рекомендательных систем, в том числе, «в такие страны, как Мьянма, Пакистан, Эфиопия, Казахстан». Вероятно, этот опыт открывает перспективы и для России. Во всяком случае, отечественные IT-компании способны создать в этой области технологии, подходящие для экспорта.


















Авторами этой статьи и многих других справедливо отмечается риск здорового пользователя Интернет потерять своё здоровье или контроль над своими действиями вследствие манипуляции со стороны рекомендательных систем — автоматов или намеренных действий нежелательных участников.
Прошу авторов заметить риск попадания «в оборот» нездоровых психически личностей через применение этих-же систем.