Получивший подряд Пентагона (около 200 миллионов долларов) ИИ-разработчик Anthropic и американское министерство войны никак не могут договориться о защитных механизмах, которые без должного контроля со стороны человека не дали бы властям использовать продукты разработчика в системах наведения на цель оружия и для слежки внутри страны, пишет в пятницу агентство Reuters.
Пентагон выразил недовольство инструкциями Anthropic [ограничивающими применение технологий]. Согласно новой ИИ-стратегии, министерство войны намерено получить возможность внедрять коммерческие ИИ-технологии вне зависимости от политик использования компаний-разработчиков данных технологий.
Однако Пентагону для применения разработок Anthropic скорее всего потребуется содействие компании. ИИ-модели Anthropic обучены избегать нанесения вреда человеку, для министерства войны их придётся перенастроить.
США задействуют ИИ не только в системах оружия, но и для поддержки полицейских внутри страны. Например, в 2024 году полицейский робот в Техасе применил слезоточивый газ при задержании подозреваемого, а после наехал на него, чтобы не дать бежать. Задерживаемый стрелял в робота, что не помогло. Тогда событие обсуждалось в духе «а как же этичное применение ИИ», что теперь выглядит наивно.
1 доллар = 76,03 рубля
См. также: Пентагон санкционировал применение самостоятельно убивающих людей боевых ИИ-роботов

















