Депутаты Европарламента одобрили закон (Artificial Intelligence Act) об искусственном интеллекте (ИИ), сообщает в среду europarl.europa.eu.
Цель документа — защита основных прав, демократии, принципа верховенства закона и устойчивости окружающей среды от связанных с высокими рисками ИИ-технологий на фоне одновременного стимулирования инноваций и превращения Европы в лидера в области ИИ.
Закон устанавливает требования к ИИ [-продуктам] в зависимости от потенциальных рисков и уровня воздействия [на общество].
Artificial Intelligence Act запрещает применение ИИ в ряде областей, где есть угроза соблюдению прав граждан, включая классифицирующие биометрические системы, использующие «деликатные характеристики», или нецелевой сбор изображений лиц человека из интернет-ресурсов; из видео, отснятого камерами видеонаблюдения для создания баз данных, которые используются системами распознавания лиц.
Под запрет попадают использование технологий распознавания эмоций в школах и на рабочем месте, практика социальных рейтингов, прогностическая деятельность полиции (когда она основана исключительно на профилировании человека или оценке его характерных черт). А также — ИИ-инструменты, которые манипулируют поведением человека или «используют людские слабости».
Кроме того, не разрешается применение систем биометрической идентификации правоохранительными органами, за исключением ряда исчерпывающе описанных определённых ситуаций. Работающие в реальном времени системы биометрической идентификации могут быть использованы только при соблюдении жёстких ограничений — например, при соблюдении временных или географических рамок и получении предварительного согласия от судебных или административных органов.
Такие системы могут быть задействованы для целевого поиска пропавшего человека или для предотвращения террористической атаки.
В документе также прописаны чёткие требования для других ИИ-систем, использование которых связано с высоким риском (из-за их потенциальной возможности нанести значительный ущерб в вопросах здравоохранения, безопасности, основных прав, окружающей среды, демократии и верховенства закона). ИИ-системы несут высокие риски при применении на объектах критически важной инфраструктуры, в образовании, при приёме на работу, оказании важнейших государственных услуг, в сфере пограничного контроля, системе правосудия и при осуществлении демократических процедур. Такие системы должны анализировать и минимизировать риски, вести журналы регистраций, быть точными и открытыми, контролировать их работу должны люди.
Для граждан предусматривается возможность подавать жалобы на работу ИИ-систем и получать разъяснения относительно решений, принятых на основе [рекомендаций] ИИ-систем и влияющих на права жителей ЕС.
Помимо прочего, ИИ-модели и системы общего назначения (General-Purpose AI, GPAI) будут отвечать определённым требованиям о прозрачности, в том числе не противоречить законам ЕС в сфере авторского права, и предоставлять краткий детализированный перечень материалов, использованных для обучения [ИИ-систем или моделей]. А дипфейки — иметь соответствующую маркировку.
См. также: