parke1_IG_Royal via Getty Images_nuclear IG_Royal via Getty Images

Как предотвратить ядерный Армагеддон искусственного интеллекта

ЖЕНЕВА – Это уже не научная фантастика: гонка за внедрение искусственного интеллекта (ИИ) в системы ядерных вооружений началась. Такое развитие событий может повысить вероятность ядерной войны. Правительства стран мира сейчас предпринимают действия, призванные гарантировать безопасность разработок и применения ИИ, поэтому у них есть возможность смягчить эту угрозу. Но если мировые лидеры действительно хотят воспользоваться этой возможностью, они сначала обязаны понять, насколько серьёзна угроза.

Несколько недель назад «Большая семёрка» в рамках Хиросимского процесса согласовала «Международный кодекс поведения для организаций, разрабатывающих передовые ИИ-системы» для «продвижения безопасного, надёжного и вызывающего доверие ИИ во всём мире». Тем временем президент США Джо Байден подписал указ, устанавливающий новые стандарты «безопасности и надёжности» ИИ. А Великобритания провела первый глобальный Саммит по безопасности ИИ, призванный гарантировать, чтобы эта технология разрабатывалась «безопасным и ответственным» образом.

Однако ни одна из этих инициатив не реагирует адекватно на риски, возникающие из-за применения ИИ в сфере ядерных вооружений. В утверждённом «Большой семёркой» кодексе поведения и в указе Байдена лишь мимоходом говорится о необходимости защищать население от генерируемых искусственным интеллектом химических, биологических и ядерных угроз. А премьер-министр Великобритании Риши Сунак вообще не упомянул острую угрозу, исходящую от применения ИИ в сфере ядерных вооружений, хотя он и заявил, что на Саммите по безопасности ИИ было достигнуто общее понимание по поводу рисков, возникающих из-за ИИ.

https://prosyn.org/2VbequHru