Владелец ИИ-системы не дал использовать её для «оживления» умерших собеседников

Разработчик ИИ-систем американская компания OpenAI вынудила пользователя отказаться от её продукта GPT-3, узнав, что он используется для «оживления» усопших, написал в среду The Register.

Представители OpenAI посчитали, что их алгоритм обработки естественного языка GPT-3 будет использован не по назначению и способен причинить вред людям.

Как пояснило издание, в пандемию разработчик игр по имени Джейсон Роурер (Jason Rohrer) создал чат-бот по имени «Саманта» с использованием модифицированного алгоритма OpenAI. Получилась программа, манера «общения» которой очень напоминала человеческую.

Необходимую информацию для создания подобных чат-ботов Роурер разместил в сети на сайте созданного им проекта Project December. Спустя некоторое время в СМИ появилась информация о том, что ещё один разработчик, Джошуа Барбо (Joshua Barbeau), в рамках Project December создал чат-бот, который, будучи обученным, мастерски имитировал манеру говорить погибшей девушки Барбо.

Узнав про это, представители OpenAI связались с Роурером и заявили о необходимости внести модификации в его разработку для того, чтобы GPT-3, на котором обучался робот, применялся по назначению и не вредил людям. Характер бесед, которые вёл робот, в OpenAI сочли предосудительным.

Саманта пропускает «вступительную» часть беседы и, нарушая правила OpenAI, переводит разговор на секс.

OpenAI запретила другим пользователям обучать своих чат-ботов с использованием ПО, созданного Роурером. Также компания потребовала разработать контент-фильтр для Саманты, чтобы та не могла «говорить на чувствительные темы».

Кроме того, Роурер должен был внедрить в чат-бот инструменты слежки за пользователями для предотвращения нецелевого использования GPT-3 «для генерирования оскорбительной или токсичной лексики». Разработчик отказался выполнять условия и закрыл проект.

См. также: В США сформулированы 4 принципа объяснимого искусственного интеллекта >>>