ИИ МОЖЕТ СПРОВОЦИРОВАТЬ ЯДЕРНУЮ ВОЙНУ
Серьезная опасность использования военными систем искусственного интеллекта заключается в его участии при принятии решения о нанесении ядерного удара. Об этом пишет издание Breaking Defense со ссылкой на бывшего заместители министра обороны США Роберта Уорка. Пишет РИА новости.По его словам, системы искусственного интеллекта не должны участвовать в контроле ядерного вооружения, поскольку они запускаются по определенным параметрам и показателям. В некоторых ситуациях искусственный интеллект может расценить неопасные факторы как представляющие угрозу, и это является "тревожной перспективой". В частности, приводится в пример российская система "Периметр", которая может принять сейсмическую активность за ядерные взрывы, после чего направит запрос в штаб войск, и если вдруг не получит ответа, может отдать команду на запуск межконтинентальных баллистических ракет. Кроме того, Уорк добавил, что военное применение искусственного интеллекта может привести к плачевным последствиям и без его прямого участия в управлении ядерным оружием. В частности, такой сферой может быть его использование при анализе разведывательных данных, а также в системах раннего предупреждения. "Представьте, система искусственного интеллекта в командном центре китайских войск, проанализировав оперативные данные, заявляет, что США готовятся нанести удар по Китаю, и рекомендует нанести превентивный удар", — сказал Уорк. Тем не менее он отмечает, что искусственный интеллект несомненно может принести пользу для военных, однако его применение должно быть ограничено и не должно распространяться на ядерное вооружение, поскольку это может привести к "катастрофическому сценарию". | |
| ПУБЛИКАЦИИ | |
| 1076 reads | 04.09.2019 |

Серьезная опасность использования военными систем искусственного интеллекта заключается в его участии при принятии решения о нанесении ядерного удара. Об этом пишет издание