Американский генерал назвал возможную причину начала ядерной войны
Фото © Pixabay
По его мнению, роботов не стоит допускать к контролю над ядерным вооружением из-за их возможной ошибки.
Использование систем искусственного интеллекта в военных целях может грозить человечеству серьёзными проблемами, в частности из-за доступа ИИ к механизмам принятия решений о нанесении ядерного удара. Такое мнение озвучил бывший заместитель министра обороны США Роберт Уорк.
Как передаёт Breaking Defense, по мнению генерала, системы искусственного интеллекта должны быть отдалены от контроля над ядерным вооружением и принятия решений о запуске. Уорк убеждён, что машина может ошибиться и расценить второстепенные факты как важные, что является "тревожной перспективой".
В пример он приводит российскую систему "Периметр", которая, по предположению Уорка, может принять сейсмическую активность за ядерные взрывы. В этом случае, как полагает генерал, она отправит запрос в штаб войск, а не получив ответа, может самостоятельно произвести пуск ракет.
— Представьте: система искусственного интеллекта в командном центре войск КНР анализирует оперативные данные, заявляет, что США готовятся нанести удар по Китаю, и рекомендует нанести превентивный удар, — продолжает Уорк.
В то же время он отмечает, что использование ИИ приносит и пользу современной армии, позволяя, например, артиллерии производить более точные выстрелы, снижая потенциальные потери среди мирного населения и союзных военных. Однако допускать искусственный интеллект к ядерному вооружению не стоит, поскольку это может привести к "катастрофическому сценарию".
Ранее компания Microsoft признала Россию лидером по внедрению искусственного интеллекта.