Использование технологий искусственного интеллекта размывает ответственность человека за происходящее, при этом боевые действия с применением ИИ становятся интенсивнее, а гражданское население и инфраструктура мирных городов страдают больше, сказал РБК руководитель отдела вооружений и ведения боевых действий в юридическом отделе международного комитета Красного Креста (МККК) Лоран Жизель.
«Всё бо́льшую проблему представляет использование искусственного интеллекта для принятия решений на войне. В результате мы видим всё больший ущерб, который наносится гражданскому населению. И всё больше вопросов по поводу того, не приводит ли это к ещё большему нарушению норм международного гуманитарного права», – пояснил он.
Сторонники таких систем считают, что искусственный интеллект позволяет принимать решения эффективнее и быстрее определять цели, однако на войне использование этих технологий «размывает ответственность человека за происходящее».
«Сто́ит помнить, что именно человек должен быть ответственным и подотчётным лицом в вопросе применения силы. Об этом прямо говорится в международном гуманитарном праве», – отметил Жизель.
МККК работает над тем, чтобы убедить государства принять новый договор, регулирующий применение автономных систем вооружений – барражирующих боеприпасов и дронов-камикадзе, использующих ИИ для автономного наведения на цель.
Он также добавил, что социальные сети усиливают распространение информации о конфликтах, из-за чего резко вырос объём дезинформации и усилилось разжигание ненависти. По его мнению, это ведёт к дегуманизации противника. В долгосрочной перспективе это очень опасно, потому что война однажды закончится, а людям всё равно придется продолжать жить вместе рядом друг с другом.
См. также: ИИ играет ключевую роль в нападении США на Иран — СМИ
















