В США боевых ИИ-роботов обучают самостоятельным действиям

1974

Исследовательская лаборатория армии США (Army Research Laboratory, ARL) совместно с университетом Карнеги-Меллон разработала новую технику, наделяющую боевых роботов способностью действовать самостоятельно в составе подразделения, с номинальным контролем со стороны человека, сообщает MeriTalk.

В частности, роботизированная мобильная платформа смогла автономно передвигаться по имитированному полю боя, анализируя данные видеонаблюдения и оперируя минимальным набором данных, и без оператора действовала именно так, как ожидали исследователи. Робот придерживался обочины, двигался под прикрытием зданий и в итоге оказался там, где следовало, говорится в релизе ARL.

Это достижение расширяет изначальную цель ИИ-исследования лаборатории – найти для машин способы обучаться быстрее путём изучения примеров боевых ситуаций и обратной связи с окружающей обстановкой, вместо попытки запрограммировать поведение машины для любого возможного сценария. Робот, действующий исходя из собственного «опыта», не требует постоянного ввода данных от оператора. В процессе его действий создается «чувство доверия» между людьми и машинами, необходимое для командной работы.

«Если робот действует как член группы, задачи можно выполнить быстрее и качество ситуационной осведомленности становится выше, — говорят исследователи. – Также робота-«сослуживца» можно использовать для первичной обкатки потенциально опасных сценариев, уберегая жизнь и здоровье солдат».

Аналогичный подход ARL использует в совместном проекте с Техасским университетом Deep TAMERalgorithm, где машины тренируют, предлагая им сравнительно небольшое количество примеров, а затем оценивая – положительно или отрицательно – попытки робота действовать самостоятельно. В одном случае в процессе таких тренировок машина смогла победить экспертов-людей в старой видеоигре Atari Bowling всего через 15 минут обучающих занятий.

ARL использует для обучения роботов технику стимулирования, известную как обратное оптимальное управление, в котором применяется поощрение наилучшего навыка, приобретенного в процессе обучения. Человек демонстрирует оптимальный путь по учебной площадке, показывая, какой именно навык следует изучить, с привязкой к объектам вроде травы, дороги и строений. Затем робот учится использовать оптимальный навык пересечения местности в зависимости от её особенностей.

Кроме улучшения поведения наземных роботизированных систем, использующихся в армии, тренировочные площадки ARL – сложные, шумные, неструктурированные – могут быть использованы для обучения гражданских роботов. Исследования ARL в этой области финансируются армейским альянсом робототехнической технологии сотрудничества (Robotics Collaborative Technology Alliance, RCTA), который поддерживает совместные усилия правительства, индустрии и академического сообщества в сфере развития наземных роботов.

О том, доверено ли роботом принятие самостоятельных решений об идентификации и поражении целей, не сообщается.

Чтобы не пропустить самое интересное, читайте нас в Телеграм

Поделиться: