Угрозы, которые представляет собой военный искусственный интеллект, можно разделить на 3 группы:

Первая группа — это значимый человеческий контроль.

Человек слаб, он плохо бегает, медленно учится, медленно думает, у него ограниченная память, поэтому очень удобно передать военные функции машине.

Это происходит не одномоментно. Уже есть российские боевые роботы–терминаторы, но есть страны, которые опережают Россию в этом направлении. Машина может автоматически обнаруживать цель, оператору остаётся нажать кнопку, и дело сделано.

В своё время воздушными дронами управляли 8 человек, сегодня — 2: пилот и оператор. А в перспективе один оператор будет управлять несколькими дронами, и здесь роль автоматики ещё возрастает, а роль человека уменьшается.

Технология боевого роя, эскадрильи ещё более усложняет управление: человек фактически исключается из контроля над роботами. Он даёт задание, рой распределяет функции между участниками этой эскадрильи и выполняет боевую работу самостоятельно. Человеческий контроль ещё сильнее сокращается.

Такие рои существуют в воздухе. Количество дронов доходит уже до 1000. Разрабатываются тактики и стратегии боевого применения. Эта тенденция перешла и в море.

Вторая группа — стратегическая стабильность. Очевидно, мы наблюдаем гонку вооружений. Это колоссальные расходы на военные разработки, это создание новых систем. Автоматизация удешевляет военные расходы, производство продукции.

Мир меняется, и вооружённые силы давно поменялись. Недавно появились противоракетная оборона, космическое командование, киберкомандование, информационная война, автономные роботы, средства борьбы с автономными роботами, с дронами, гиперзвуковые вооружения и т. д. Мир и вооружённые силы меняются, но вряд ли от этого мир становится безопаснее. Появляются проекты, где в воздухе и на море человек может участвовать в военной операции безопасно для себя. Происходит это уже и под водой. Есть уже 3 проекта, самый известный из них — российский «Посейдон».

Третья группа — угроза использования ИИ в качестве ассиметричного ответа на военные вызовы.

Если мы заглянем в будущее, которое уже не за горами, появляется шестое поколение истребителей, которые, конечно, будут беспилотными. Человек становится слабым звеном. Там уже другие скорости, другие средства вооружения.

Как только боевые лазеры по мощности выйдут на один порядок (я предполагаю, что это случится в течение пяти лет), то напрямую станет вопрос о выводе их в космос.

Уже ведутся финансовые и технические прикидки, как это сделать. Для тех стран, у кого не хватит средств, остаются ассиметричные меры (а их достаточно немало), и передача искусственного интеллекта, а именно его военных функций, на аутсорсинг искусственному интеллекту — один из таких ассиметричных ответов. Это разведка, обработка информации, и постепенно ИИ выходит на уровень принятия решений. Эта система увязывается снизу доверху по горизонтали и по вертикали. То же самое происходит в России.

Одним словом, в военной сфере происходит то, что в своё время было в сфере компьютерной торговли, когда торговые роботы вышли на биржу, заменили человека, который теперь только устанавливает правила, а торговля идёт в автоматическом режиме. Примерно к этому двигается сегодня и оборонная сфера.

Из этих трёх сфер только одна находит отражение на международном уровне. Обсуждается тема участия человека в боевой работе. Есть группа компаний, выступающих за полный запрет передачи физической функции применения оружия искусственному интеллекту. Две лидирующие страны — США и Россия — занимают по этому вопросу особую позицию. Они говорят о том, что искусственный интеллект в военном деле — это вещь позитивная, которая позволяет сократить негативные последствия от человеческой работы и соблюдать права человека лучше, чем это делают сегодняшние военные.

Я предполагаю, что сегодня в мире существует большой спрос на моральное лидерство. Принципы гуманности — это то, что принадлежит людям, и США и Россия могли бы в этом проявить инициативу, лучше если совместно.