Во вторник около 60 стран, включая США, поддержали “план действий” по регулированию ответственного применения искусственного интеллекта (ИИ) в военных операциях. Однако Китай отказался поддержать этот юридически необязывающий документ, что подчеркивает существующие глобальные разногласия по вопросу использования ИИ в военных целях.
Этот план был разработан на саммите по ответственному использованию ИИ в военной сфере (REAIM), который прошел в Сеуле и стал вторым по счету мероприятием после первой встречи в Гааге в прошлом году. Во время первого саммита Китай и другие страны поддержали более скромный “призыв к действию”, не связанный юридическими обязательствами.
Правительственные представители подчеркнули, что нынешний план отражает переход от обсуждений к конкретным действиям. В условиях, когда технологии на основе ИИ, такие как беспилотники, используемые в Украине, становятся все более распространенными, необходимость в четких правилах и контроле за использованием ИИ в военных конфликтах становится все более острой. Министр обороны Нидерландов Рубен Брейкелманс отметил, что если прошлогодний саммит был нацелен на достижение консенсуса, то в этом году речь шла уже о конкретных мерах, учитывающих стремительное развитие военных технологий на основе ИИ.
Одним из ключевых аспектов плана является акцент на оценке рисков при использовании ИИ в военной сфере с обязательным сохранением контроля со стороны человека, особенно в критических вопросах, таких как ядерное оружие. Документ также предлагает страны увеличить прозрачность своих возможностей в области ИИ и сотрудничать на международном уровне для укрепления взаимного доверия.
Особое внимание в плане уделено предотвращению использования ИИ для распространения оружия массового поражения (ОМП), особенно среди террористических организаций.
План действий дополняет другие инициативы, включая заявление правительства США о ответственном военном использовании ИИ, опубликованное в прошлом году. Саммит в Сеуле, организованный совместно с Нидерландами, Сингапуром, Кенией и Великобританией, призван создать инклюзивный глобальный диалог о применении ИИ в военной сфере, избегая доминирования одной нации или группы стран.
Тем не менее, отказ Китая поддержать документ, несмотря на присутствие его представителя на саммите, подчеркивает продолжающиеся глобальные разногласия в вопросе регулирования ИИ в военных целях.
Эксперты, такие как Джакомо Перси Паоли, глава программы по безопасности и технологиям в Институте исследований ООН по вопросам разоружения (UNIDIR), считают этот план значительным, но постепенным шагом вперед. Паоли предупредил о риске слишком быстрого внедрения этих руководящих принципов, что может оттолкнуть страны, которые еще не готовы к полному взаимодействию с подобными мерами.
Будущие последствия
Принятие этого плана подчеркивает растущее признание этических и операционных вызовов, связанных с интеграцией ИИ в военные операции. С развитием технологий ИИ его военные применения будут расширяться, что вызывает важные вопросы о контроле, ответственности и глобальной безопасности.
Акцент на надзоре человека отражает более широкую тенденцию в регулировании ИИ, где баланс между технологическим прогрессом и этической ответственностью играет центральную роль. Военные системы будущего, все больше полагающиеся на ИИ для принятия решений, могут изменить характер войны, делая ее быстрее и потенциально более автономной, что требует международных соглашений для управления рисками.
Отсутствие Китая среди стран, поддержавших этот план, также значимо, поскольку отражает глубокие геополитические противоречия и различные взгляды на регулирование ИИ. Амбициозные военные программы Китая на основе ИИ и его стратегическое нежелание следовать международным рамкам свидетельствуют о том, что будущие саммиты будут продолжать сталкиваться с проблемой привлечения ключевых игроков, таких как Китай, к этим дискуссиям. Без глобального сотрудничества риск гонки вооружений на основе ИИ в военной сфере может дестабилизировать международную безопасность.