Почему военным не стоит доверять искусственному интеллекту в стратегии

Использование искусственного интеллекта (ИИ) для ведения войны было обещанием научной фантастики в течение многих лет, но новое исследование Технологического института Джорджии утверждает, что лишь очень немногое может быть автоматизировано, что показывает ценность человеческого суждения.

"Вам нужен человеческий разум, чтобы принимать моральные, этические и интеллектуальные решения в невероятно запутанной, чреватой, пугающей ситуации", - сказал Джон Линдсей, доцент Школы кибербезопасности и конфиденциальности и Школы международных отношений им. Сэма Нанна

В основе принятия решений ИИ лежат четыре ключевых компонента: данные о ситуации, интерпретация этих данных, определение наилучшего способа действия в соответствии с целями и ценностями и действие. Развитие машинного обучения упростило прогнозирование, что делает данные и суждения еще более ценными. Хотя ИИ может автоматизировать все - от торговли до транзита, суждение - это тот случай, когда человек должен вмешаться, считают Линдсей и профессор Университета Торонто Ави Голдфарб.

"Условия, при которых ИИ работает в коммерции, труднее всего обеспечить в военной среде из-за ее непредсказуемости", – считают они

На войне, как правило, нет большого количества объективных данных, а суждения о целях и ценностях по своей сути противоречивы, но это не значит, что это невозможно. Исследователи утверждают, что ИИ лучше всего использовать в бюрократически стабилизированной обстановке в зависимости от конкретной задачи.

Конкуренция с ИИ может подтолкнуть противников к манипулированию или нарушению данных, чтобы сделать обоснованное суждение еще более трудным. Таким образом, вмешательство человека станет еще более необходимым, считают исследователи.