У Пентагона возникли разногласия с подрядчиком Anthropic по поводу использования ИИ для выбора целей ударов

19

Получивший подряд Пентагона (около 200 миллионов долларов) ИИ-разработчик Anthropic и американское министерство войны никак не могут договориться о защитных механизмах, которые без должного контроля со стороны человека не дали бы властям использовать продукты разработчика в системах наведения на цель оружия и для слежки внутри страны, пишет в пятницу агентство Reuters.

Пентагон выразил недовольство инструкциями Anthropic [ограничивающими применение технологий]. Согласно новой ИИ-стратегии, министерство войны намерено получить возможность внедрять коммерческие ИИ-технологии вне зависимости от политик использования компаний-разработчиков данных технологий.

Однако Пентагону для применения разработок Anthropic скорее всего потребуется содействие компании. ИИ-модели Anthropic обучены избегать нанесения вреда человеку, для министерства войны их придётся перенастроить.

США задействуют ИИ не только в системах оружия, но и для поддержки полицейских внутри страны. Например, в 2024 году полицейский робот в Техасе применил слезоточивый газ при задержании подозреваемого, а после наехал на него, чтобы не дать бежать. Задерживаемый стрелял в робота, что не помогло. Тогда событие обсуждалось в духе «а как же этичное применение ИИ», что теперь выглядит наивно.

1 доллар = 76,03 рубля

См. также: Пентагон санкционировал применение самостоятельно убивающих людей боевых ИИ-роботов

Чтобы не пропустить самое интересное, читайте нас в Телеграм

Поделиться:

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

какого цвета снег (1-белый, 2-желтый)