Свяжитесь с нами
 

Искусственный интеллект (AI) Ученые хотят запретить использование ИИ в «умном оружии»

29 июля 2015 | Автор: klassik | Просмотров: 1423
На Международной конференции по искусственному интеллекту (IJCAI) было представлено открытое письмо к ООН, в котором более 1000 специалистов требуют запретить использование искусственного интеллекта при разработке «умного оружия» и боеприпасов. Инициатором письма стал Институт Будущего. Его одобрили многие всемирно известные ученые и лидеры отрасли. Среди них Стивен Хокинг, Элон Маск, Стив Возняк, Ноам Хомский.

Синтез искусственного интеллекта (ИИ) и автономного вооружения сегодня может показаться сюжетом из научно-фантастического фильма или компьютерной игры. Тем не менее, ученые считают, что подобные технологии уже могут быть доступны уже в течении ближайшего года, а не десятилетий. Меры необходимо принимать уже сейчас, если мы хотим предотвратить парадигмы современной войны.

По мнению авторов письма, использование ИИ в оружии может стать третьей революцией в ведении боевых действий. Первой революционной технологий изменившей характер войны стало огнестрельное оружие, затем появилась ядерная бомба. Изменения произошли, несмотря на трудности, с которыми было связано появление новых вооружений. Введение винтовок было связано и с трудностями внедрения новых технологий и освоением вооружения солдатами. Ядерное оружие было внедрено, несмотря на его ошеломительную стоимость и технологические трудности производства и использования. Опасность ядерной бомбы общество осознало. Вместо активного использования возникла система ядерного сдерживания и контроля.
Ученые хотят запретить использование ИИ в «умном оружии»

В случае с использованием ИИ в системах вооружения – опасность для цивилизации не настолько очевидна. Может показаться даже положительным тот факт, что теперь человеку нет нужды рисковать жизнью солдата на боле боя. Кроме того, применение роботов не вызывает такого отторжения в обществе, как запуск МБР с ядерными боеголовками.

В письме обращается внимание и на то, что беспилотники с ИИ, которые способны самостоятельно охотиться и убивать независимо от команды человека, будут относительно дешевы в массовом производстве. Это позволит снизить стоимость любого вторжения, снижая порог принятия решения о начале военных действий. Моральная тяжесть по поводу убийства себе подобного также снимается с человеческого сознания. Процесс убийства становится удаленным, опосредованным. При этом сводится к нулю элемент человеческого сострадания и моральной ответственности.

Еще одной стороной является то, что любой деспот, любой полевой командир может дать команду на запуск такого оружия с целью проведения этнических чисток или решения террористических задач.

«Многие из ведущих ученых поставили свои подписи под этим письмом», говорит профессор кафедры ИИ в Университете Южного Уэльса Тоби Уолш. «Этим открытым письмом мы надеемся довести до общества всю остроту этой темы, способной повлиять на судьбу всего Человечества. Мы можем это предотвратить еще на ранней стадии и не хотим сидеть сложа руки наблюдая зарождение эры новой войны. Только в запрещении подобного оружия безопасное будущее для всех нас».
TEXT.RU - 100.00%

Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.

Добавление комментария

Имя:*
E-Mail:*
Введите два слова, показанных на изображении: *