В своём новом докладе специалисты Корнеллского университета рассказали о рисках, связанных со всё более активным внедрением искусственного интеллекта в ядерные вооружения, сообщает Daily Mail. По мнению учёных, машины могут «выйти из-под контроля» и спровоцировать «апокалиптическую войну», так что основные решения в применении ядерного оружия всё-таки лучше оставить за человеком.
Учёные предупреждают, что передача контроля над ядерными вооружениями искусственному интеллекту может закончиться «апокалиптической войной в стиле «Терминатора», сообщает Daily Mail.
В своём новом докладе специалисты американского Корнеллского университета, входящего в Лигу плюща, утверждают: всё больший сдвиг в сторону автоматизации и роботизации может привести к тому, что машины «выйдут из-под контроля» и объявят войну человечеству — прямо как в серии научно-фантастических фильмов «Терминатор» с Арнольдом Шварценеггером.
Как утверждают эксперты, пытаясь «догнать США по военному потенциалу», Россия и Китай начинают чаще полагаться на технологии искусственного интеллекта, которые в перспективе могут представлять ещё даже не известные миру риски. Так, Москва уже начала работу над беспилотной подводной ядерной торпедой «Посейдон», ранее известной как «Статус-6».
Кроме того, страны могут решить активнее задействовать искусственный интеллект в системах раннего оповещения. И здесь, как напоминают учёные, история показывает нам, что риски тоже могут быть велики. Многим известен инцидент 1983 года, когда советский офицер Станислав Петров проигнорировал сигнал системы о запуске американских ракет. Петров понял, что сигнал был ложным и тем самым спас мир от возможной ядерной войны между США и Россией.
Специалисты признают, что в какой-то форме компьютеризация ядерных вооружений может повысить надёжность и стабильность работы таких систем. Искусственный интеллект может собирать данные и осуществлять анализ, которым потом будет пользоваться военное руководство.
«Занимаясь модернизацией ядерных арсеналов, руководство должно стремиться использовать компьютерные системы, чтобы снизить риски случайных происшествий, ложных срабатываний, и увеличивать человеческий контроль над операциями с применением ядерного оружия», — рекомендуют учёные.
***Материалы ИноТВ содержат оценки исключительно зарубежных СМИ и не отражают позицию RT
|