Ученые выступили против терминаторов
Авторы письма призывают отказаться от использования ИИ
Ученые предупредили об опасности использования искусственного интеллекта (ИИ) при создании боевой техники и новейших систем вооружения. Более тысячи инженеров и исследователей подписали открытое письмо об этом, сообщает Лента.ру.
«Если какая-либо крупная военная держава попытается вырваться вперед в развитии оружия с искусственным интеллектом, то глобальная гонка вооружений практически неизбежна. Конечная точка этой технологической траектории очевидна: автономное оружие станет завтрашним «Калашниковым», - отмечается в документе.
Авторы письма призывают отказаться от использования ИИ при создании боевой техники. Они предупреждают, что гонка подобных вооружений приведет к непредсказуемым последствиям.
Вопрос о создании боевых роботов обсуждался в ООН, напоминает Русская служба ВВС. Международная организация рассматривает возможность запрета определенных типов автономных боевых систем.
Среди подписавших послание - известный физик и космолог Стивен Хокинг, предприниматель Элон Маск и один из основателей компании Apple Стив Возняк. Документ планируется передать делегатам международной конференции по искусственному интеллекту в Буэнос-Айресе.