Свяжитесь с нами
 

Боевые роботы Боевые роботы могут уменьшить количество жертв

4 декабря 2015 | Автор: oleg | Просмотров: 1854
Могут ли боевые роботы уменьшить количество жертв среди гражданского населения?
В 2010 году в деревне Чахэр Даррех афганские дети проходили мимо бронированного автомобиля. По детям был открыт огонь на поражение. Автор статьи утверждает, что автономные боевые роботы могли бы уменьшить количество жертв среди гражданского населения по сравнению с обычными военными. Потому что не распознали бы детей как мишени, по которым необходимо открыть огонь на поражение.
Боевые роботы могут уменьшить количество жертв

В мире робототехники, да и в обществе ведётся жаркая дискуссия о том, этично ли (и вообще, допустимо ли) создавать и использовать на поле боя полностью автономных боевых роботов, вооружённых летальным оружием, и самостоятельно принимающих решение на его использование. Есть диаметрально противоположные точки зрения. Одни известные робототехники считают, что нужно законодательно запретить автономных боевых роботов (их ещё называют «роботы-убийцы»). Другие говорят, что автономные боевые роботы могли бы уменьшить количество жертв среди гражданского населения. Поскольку они принимали бы решение на использование летального оружия без эмоций. Мы постараемся отразить обе точки зрения.
Итак, статья ЗА использование автономных боевых роботов. Вот что думает Роланд Аркин Профессор (Ronald C. Arkin), директор мобильной робототехнической лаборатории.

Я участвую в дискуссиях по автономным военным системам в течение почти 10 лет. Я не против их запрета. Но я убежден, что мы должны продолжить разрабатывать эту технологию. Одна причина состоит в том, что, как я полагаю, по сравнению с обычными солдатами, такие системы могли бы уменьшить жертвы среди гражданского населения и причинить меньше материального ущерба. У человечества есть довольно мрачный опыт в области этичного поведения солдат на поле боя. Прошлые и нынешние тенденции поведения солдат (так будем называть военных вне зависимости от их воинского звания) на войне относительно соблюдения юридических и этических требований, в лучшем случае, сомнительны. Потенциальные объяснения постоянства военных преступлений включают: потеря родных и близких, вызывающая чувство мести; дегуманизация врага с помощью уничижительных имен и эпитетов; плохо обученные или неопытные войска; внешнее давление (например, требование командиров нанести как можно больший урон врагу), получение удовольствия от убийства. Почему боевые роботы-убийцы могут уменьшить количество жертв на поле боя среди гражданского населения? Есть ли какая-либо причина для оптимизма?

Во-первых, автономные роботизированные боевые системы могут быть разработаны без эмоций, которые могут «омрачить их рассудок»: привести к гневу и расстройству, спровоцированному событиями на поле боя.
Во-вторых, перед тем, как применить летальное оружие, интеллектуальные электронные системы могут обработать значительно большие объёмы информации из большего количества источников, и намного быстрее, чем человек режиме реального времени.
В-третьих, совместная боевая работа солдат и автономных роботов (с независимым и объективным контролем этического поведения друг друга на поле боя, представлением свидетельств и сообщении о нарушениях). Одно только это, возможно, могло бы привести к сокращению этических нарушений со стороны солдат.

У автономных боевых роботов не должно быть «инстинкта самосохранения». Они, в случаях низкой уверенности в идентификации цели, не должны защищая себя, открывая огонь на поражение. Они должны, в случае необходимости, сами себя приносить в жертву, например, для спасения своего «человеческого» командира. Роботы не должны действовать по принципу «сначала стрелять, а потом задавать вопросы». Роботы могут принять на себя риск получить пулю от «невоюющей стороны». Солдат этому обучают, но у человека могут сдать нервы.

Есть серьёзные технические проблемы, которые требуют решения. Главная из них - надёжная идентификация цели (т.е., предельно точное распознавания врага и отличие его от мирного жителя). Если робот будет в состоянии правильно идентифицировать цель и принять правильное решение на применение оружия, то это и будет означать соблюдение этических требований международного права по отношению к гражданскому населению на поле боя. Это и будет обеспечивать уменьшения потерь среди мирного населения, о чём так заботится правозащитная организация Хьюман Райтс Вотч (Human Rights Watch), которая призывает к полному запрету на летальные автономные роботы. Давайте не будем «душить» исследования и разработки в области автономных боевых роботов, оставим в стороне страхи, которые навязал нам Голливуд своими фильмами, такими как «Терминатор». Я не вижу фундаментальных научных барьеров для создания интеллектуальных автоматизированных систем, которые могут выиграть у людей относительно морального поведения.


Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.

Добавление комментария

Имя:*
E-Mail:*
Введите два слова, показанных на изображении: *