Боевые роботы: этические проблемы
В докладе анализируются автономные системы, способные вести боевые действия без участия человека. Хайнс называет их LARS (Lethal autonomous robotics — Смертоносные автономные роботы). По утверждению ученого, главная проблема (скорее нравственно-философского характера) в использовании таких систем состоит в снижении ценности человеческой жизни противника. Более того, использование таких систем в конфликтах против стран, не обладающих схожими технологиями, может привести к катастрофическим последствиям.
При этом Хайнс отмечает, что роботы лишены многих недостатков, присущих живым комбатантам. Роботы не испытывают эмоций, чувств мести, злости, ненависти или страха, не склонны к насилию. Роботы, не будут причинять жертвам излишнюю боль, если это не предусмотрено программой.
По данным Хайнса, в настоящее время сразу у нескольких стран есть почти полностью функциональные LARS системы. В США это один из современных вариантов (изначально такие системы разрабатывались в 70-х годах прошлого века) системы Phalanx, предназначенный для автоматической защиты кораблей от воздушных угроз — таких как ракеты и самолеты. Израильские Harpy — беспилотные летательные аппараты, предназначенные для борьбы с радиолокационными установками — также относятся к LARS.
Ранее об опасности использования полностью автономных роботов заявила международная неправительственная организация Human Rights Watch. Совместно с Гарвардской школой права HRW подготовила 50-страничный доклад, основная идея которого в том, что чересчур самостоятельные роботы будут убивать всех подряд.