Что нужно знать о роли искусственного интеллекта в вооруженных конфликтах
Растущие масштабы применения искусственного интеллекта (ИИ) в военных целях ставят перед человечеством вопросы, вызывающие глубокую обеспокоенность. Сейчас, когда Великобритания готовится принять в ноябре саммит по вопросам безопасности ИИ, мы рассмотрим некоторые ключевые вопросы и проблемы применения в вооруженных конфликтах систем ИИ, и особенно машинного обучения.
Что такое искусственный интеллект?
Под искусственным интеллектом подразумевается применение компьютерных систем для решения задач, которые обычно требуют осмысления, планирования и обоснования человеком.
Хорошо известным примером является система ИИ, лежащая в основе ChatGPT, но существует и множество других.
Основой систем ИИ являются алгоритмы. Традиционный алгоритм — это набор инструкций или правил, которым компьютер или машина должны следовать, чтобы ответить на вопрос или решить задачу.
Машинное обучение — это вид системы ИИ, которая создает свои собственные инструкции, основываясь на данных, на которых она «обучается». Затем она следует этим инструкциям для поиска решения поставленной задачи. В некотором смысле такая компьютерная программа пишет сама себя. Последние достижения в области ИИ связаны именно с машинным обучением.
В процессе их применения для решения различных задач некоторые системы машинного обучения продолжают «учиться», основываясь на входных данных, поступающих из внешней среды, в которой они работают.
Сама концепция машинного обучения предполагает, что системы с ИИ не всегда одинаково реагируют на одни и те же входные данные (в отличие от простых алгоритмов, основанных на правилах), что делает их непредсказуемыми.
Другая проблема заключается в том, что системы машинного обучения часто представляют собой так называемый «черный ящик». Это значит, что даже если известны входные данные, бывает очень сложно объяснить, почему система выдала тот или иной результат.
Как ИИ может применяться в вооруженных конфликтах?
Вооруженные силы масштабно инвестируют в системы ИИ. Уже есть примеры их применения на поле боя для информационного обеспечения военных операций или в составе различных систем вооружений.
МККК выделил три области, в которых вооруженные силы разрабатывают ИИ для применения в ходе военных действий и которые вызывают серьезные вопросы с гуманитарной точки зрения:
- Интеграция ИИ в системы вооружений, в частности, в автономные системы вооружений;
- Применение ИИ в кибернетических и информационных операциях;
- Военные «системы поддержки процесса принятия решений», основанные на ИИ.
Наибольшее внимание при разработке ИИ в военных целях уделяется автономным системам вооружений. Например, высказываются опасения, что ИИ может применяться для непосредственного нанесения удара по людям или транспортным средствам.
МККК призывает правительства установить новые международные правила, которые запретили бы одни виды автономных вооружений и ограничили бы применение других, в том числе контролируемые ИИ.
Несколько меньше внимания уделяется рискам, связанным с применением ИИ в кибернетических и информационных операциях, а также в системах поддержки процесса принятия решений (см. разделы ниже).
Все случаи подобного применения ИИ в вооруженных конфликтах могут нанести урон гражданскому населению, если международное сообщество в таких случаях не будет придерживаться подхода, ориентированного на человека.
Как применяется ИИ для принятия обоснованных военных решений?
Система поддержки процесса принятия решений — это любой компьютерный инструмент для подготовки аналитических данных, необходимых для принятия военных решений, который может включать программное обеспечение на основе ИИ.
Эти системы собирают, анализируют и сочетают различные источники данных, чтобы, например, распознавать людей или объекты, оценивать модели поведения, готовить рекомендации для военных операций или даже прогнозировать будущие действия или ситуации.
Например, система распознавания изображений на основе ИИ может применяться для распознавания военных объектов в ходе анализа видео с беспилотников и других потоков разведывательной информации, чтобы рекомендовать вооруженным силам цели для нанесения ударов.
Другими словами, эти системы ИИ могут поставлять данные для принятия решений о том, на кого или на что и когда нападать. Высказывались даже тревожащие предположения о том, что системы на основе ИИ можно применять для принятия решений о применении ядерного оружия.
Некоторые утверждают, что системы поддержки процесса принятия решений могут помочь человеку принимать такие решения, которые будут содействовать соблюдению международного гуманитарного права и сводить к минимуму риски для гражданского населения.
Другие предупреждают, что чрезмерная зависимость от результатов работы ИИ создает проблемы для защиты гражданского населения и соблюдения норм международного гуманитарного права, включая необходимость учитывать мнение человека при принятии правовых решений, особенно из-за непрозрачного и предвзятого характера многих современных систем машинного обучения.
Как можно применять ИИ в кибернетической и информационной войне?
Ожидается, что ИИ изменит как способы защиты от кибератак, так и методы их проведения.
Например, системы с ИИ и возможностями машинного обучения могут в автоматическом режиме искать уязвимости в компьютерных системах противника и одновременно обнаруживать слабые места в своих собственных. При нападении они могут одновременно защищаться и наносить ответные удары в автоматическом режиме.
Подобные разработки могут расширить масштабы кибератак, а также изменить их характер и привести к более серьезным последствиям, особенно для гражданского населения и инфраструктуры.
Информационная война уже давно стала частью конфликтов. Однако цифровое поле боя и системы с ИИ изменили способы распространения информации и создания дезинформации.
Системы с ИИ широко применяются для создания фальшивых текстовых, аудио-, фото- и видеоматериалов, которые все труднее отличить от подлинных.
Не все формы информационной войны связаны с ИИ и машинным обучением, но похоже, что эти технологии изменят характер и масштабы манипулирования информацией, а также их последствия в реальном мире.
Какие опасения вызывает у МККК применение ИИ и машинного обучения в вооруженных конфликтах?
Применение систем ИИ и машинного обучения в вооруженных конфликтах порождают серьезные гуманитарные, правовые, этические последствия и последствия в плане безопасности.
В условиях стремительной интеграции ИИ в военные системы государствам крайне важно учитывать конкретные риски для людей, затронутых вооруженным конфликтом.
Несмотря на широкий спектр последствий, которые необходимо учитывать, можно выделить следующие особые риски:
- Автономные системы вооружений представляют все большую опасность.
- Растет ущерб гражданскому населению и гражданской инфраструктуре в результате киберопераций и информационных войн.
- В военных условиях ИИ отрицательно влияет на качество принятых человеком решений.
Государствам важно сохранить эффективный контроль человека и учет его мнения в ходе применения систем ИИ, в том числе машинного обучения, для решения задач или поиска решений, которые могут иметь серьезные последствия для жизни людей.
На войне нельзя перекладывать на машины и компьютерные программы соблюдение правовых обязательств и моральную ответственность.
К чему МККК призывает международное сообщество?
Очень важно, чтобы в разработке и применении ИИ в районах, затронутых конфликтами, международное сообщество придерживалось подхода, который был бы действительно ориентирован на человека.
Начинать надо с учета обязательств и ответственности, возложенных на человека, и необходимых мер для обеспечения совместимости применения данных технологий с международным правом, а также общественными и нравственными ценностями.
С нашей точки зрения, обсуждение применения на войне систем с ИИ и машинным обучением, а также разработка дополнительных правил, норм и ограничений должно отражать более строгое соблюдение существующих обязательств в рамках международного права, и особенно международного гуманитарного права, и содействовать ему.