Рекомендательные сервисы с ИИ как системы поддержки навязываемых решений

НТЦ «Главного радиочастотного центра» опубликовал во вторник отчёт «Риски и угрозы использования технологий ИИ в рекомендательных сервисах».

Ценность документа (150 страниц) заключается, на наш взгляд, прежде всего в обширных фактических сведениях об угрозах, которые несут современные рекомендательные сервисы, и о методах преодоления этих угроз. Предпринята небесполезная попытка классификации того и другого, эта классификация отражена в структуре текста.

Авторы отчёта относят рекомендательные системы «к системам поддержки принятия решений». Такие системы предугадывают, развивают, направляют и модифицируют желание пользователя, разыскивающего (потребляющего) информацию в Сети.

Информация эта в простейшем случае относится к товарам онлайн-магазинов, тут смысл применения рекомендательных систем понятен. Но простейшими случаями дело не ограничивается. Рекомендательные системы в силу их способности эффективно манипулировать людьми чрезвычайно опасны во всех сферах человеческой деятельности.

Попытаемся обратить внимание читателя на основные положения отчёта, а также на вытекающие из этих положений выводы.

«Гиперперсонализация»

ИИ привнёс в рекомендательные системы возможность тонко подстраивать поисковую выдачу, рекламу, сопутствующие материалы, развлекательный контент, СМИ и проч., и проч. под отдельно взятого человека. Авторы используют термин «гиперперсонализация», определяя его как персонализацию информации с использованием возможностей ИИ для сбора и анализа большого объёма данных о пользователе, в том числе данных, получаемых в реальном времени с его цифровых устройств и устройств, подключённых к Интернету вещей (IoT).

Возможности для манипуляций, достигаемые гиперперсонализацией, грандиозны. Нейронным сетям доступно даже распознавание наших эмоций – по мимике, интонации, сигналам от носимых устройств и от устройств IoT.

Угрозы

Гиперперсонализация в рекомендательных системах может быть использована в качестве оружия. Рекомендательные системы, владеющие большими данными о каждом человеке, в сочетании с ИИ «способны приводить к увеличению ненависти и вражды между отдельными общностями и социальными группами».

Это не абстрактное суждение, ситуация уже стала критической: каждый двадцатый пользователь Интернета в России включён в асоциальные неформальные сообщества, сообщается в отчёте.

Зарубежные цифровые платформы активно сотрудничают со спецслужбами, в чём после Сноудена сомневаться неприлично. Спецслужбы и сами, без посторонней помощи, способны изучить и использовать в своих целях механизм работы отечественных платформ. Как следствие, «политические взгляды перестают быть продуктом свободного выбора и рационального анализа».

Эти угрозы – социально- и военно-политические – авторы отчёта рассматривают в конце соответствующего раздела, постепенно подводя к ним читателя. До этого описываются угрозы и риски психологические и социальные. Нынешние вычислительные системы вместо того, чтобы стать усилителями интеллекта, становятся его протезом, ослабляя наши способности к самостоятельному анализу и конструктивному социальному поведению. Сегодня усреднённый пользователь Интернета не в состоянии держать концентрацию дольше 10-15 минут – что рекомендательным системам и требуется.

Также приводятся подробные и весьма любопытные сведения об угрозах экономических. В частности, смартфоны, с которыми мы не расстаёмся и которые благодаря рекомендательным системам держат нас в персональном информационном пузыре, крадут у продуктивного труда пугающе много времени: в России 23% сотрудников компаний по личным делам ежедневно проводят онлайн более двух часов.

НПА-регулирование

Поиск ответа на вопрос «что со всем этим делать» в отчёте логично начат с анализа зарубежного опыта нормативно-правового регулирования. Рассматривается опыт США, Великобритании, Евросоюза и Китая.

Регулирование ИИ и рекомендательных систем не разделяется. НПА, посвящённые и тому, и другому, приводятся вместе. Ясно, что ИИ применяется далеко не только в рекомендательных системах, однако рекомендательных систем без использования ИИ уже не осталось, так что авторов отчёта можно понять.

Без подробностей (они полно представлены в отчёте) картина такова.

США децентрализовали правовое регулирование ИИ, федеральных законов о регулировании рекомендательных систем нет, ставка сделана на снятие ограничений для развития бигтеха, саморегулирование отрасли и экспансию американских отраслевых стандартов по всему миру. С избранием Трампа этот подход существенно усилился, особенно в военной сфере.

Великобритания, напротив, «выстроила строгую систему [нормативно-правового] регулирования рекомендательных алгоритмов», сказано в отчёте.

Схожая ситуация и в Евросоюзе – у Еврокомиссии обширные, комплексные, продуманные полномочия для надзора за цифровыми платформами. Как и в Великобритании, отдельная проблема заключается в контроле исполнения законов.

Китай тоже принял комплексные законы для регулирования рекомендательных систем. Цель – всеобъемлющий государственный контроль над информационным пространством страны с упором на предотвращение любых социально-политических рисков.

См. также:

Как обеспечить действенность НПА-регулирования

Весьма информативная и самая обширная часть отчёта посвящена «опыту снижения рисков и нивелирования угроз», т.е. методам проверки и контроля рекомендательных систем на предмет соблюдения ими законов и регулирующих НПА.

Диапазон таких методов широк, от реинжиниринга кода рекомендательных систем до наблюдения за ними как за «чёрными ящиками». Применяется и внешнее воздействие на рекомендательные системы, а именно – по принципу «с роботами должны бороться роботы» корректируются навязываемые пользователю рекомендации («ленты» рекомендаций), например, посредством браузерных расширений, замечающих навязываемый контент.

По прочтении этой части отчёта складывается впечатление, во-первых, о наличии большого количества разнообразных и развитых методов наблюдения за рекомендательными системами, а также о сложности таких методов — и как как самих по себе, и в применении. По сути, здесь мы имеем обширную область для прикладной науки.

Во-вторых, и это главное: наиболее эффективный путь состоит в том, чтобы рекомендательные сервисы были юридически обязаны дать пользователю возможность ограничить их влияние, вплоть до отключения. Наличие такой возможности регулятору легко контролировать, а у пользователя появляется возможность применять поисковые системы без того, чтобы последние занимались самоуправством, т.е. «гиперперсонализацией».

В-третьих, пользователя надо просвещать на предмет информационной гигиены. Это нетривиальная, но необходимая задача. Точно такая же задача стояла, заметим, в случае обычной гигиены – для того, чтобы люди стали пользовались мылом, потребовалась настойчивая пропаганда.

Что делать России

В нашей стране с октября 2023 года действует закон о регулировании рекомендательных интернет-технологий. Базирующееся на этом законе регулирование «ограничивается минимальным количеством требований к информационным ресурсам, на которых применяются соответствующие технологии», констатируется в отчёте. Эти требования, отметим, описаны к тому же в самом общем виде, что существенно затрудняет контроль их соблюдения.

Среди рекомендаций авторы отчёта называют, в частности, создание реестра рекомендательных систем, доступ к которым в течение суток составляет более ста тысяч пользователей на территории Российской Федерации; фильтрацию и исключение приоритезации деструктивной информации при предоставлении информации с применением рекомендательных технологий; внедрение в процесс разработки и эксплуатации крупных цифровых платформ установленных государством обязательных технических методов смягчения [названных выше] угроз; специальные меры защиты несовершеннолетних от влияния рекомендательных систем; механизмы «антикризисного переранжирования информации» [поступившей из рекомендательных систем]; и другие.

Авторы отчёта упоминают также об экспорте китайских технологий контроля киберпространства, рекомендательных систем, в том числе, «в такие страны, как Мьянма, Пакистан, Эфиопия, Казахстан». Вероятно, этот опыт открывает перспективы и для России. Во всяком случае, отечественные IT-компании способны создать в этой области технологии, подходящие для экспорта.

Чтобы не пропустить самое интересное, читайте нас в Телеграм

Поделиться:

1 КОММЕНТАРИЙ

  1. Авторами этой статьи и многих других справедливо отмечается риск здорового пользователя Интернет потерять своё здоровье или контроль над своими действиями вследствие манипуляции со стороны рекомендательных систем — автоматов или намеренных действий нежелательных участников.
    Прошу авторов заметить риск попадания «в оборот» нездоровых психически личностей через применение этих-же систем.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

пять+4 (ответ цифрами)