@ЗАГОЛОВОК = Французский журнал "Сьянс э ви" о применении

advertisement
@ЗАГОЛОВОК = Французский журнал "Сьянс э ви" о применении роботов в сфере
обороны и безопасности, часть 2
В то же время в ней отмечается, что "в том негуманном пространстве, которым
является поле боя, робот может в определенном смысле оказаться более гуманным,
чем человек". "В частности, как отмечает Питер Сингер /исследователь в сфере
международной политики Бруклинского института и консультант ВС США/, робот не
грабит мирное население, не насилует и явно не будет из чувства мести уничтожать
население целой деревни. Робот, в отличие от человека, сохраняет спокойствие в
любой ситуации", - говорится в статье. "Нельзя не содрогнуться от ужаса, читая
результаты исследования, проведенного Главным медицинском управлением ВС США на
основе опроса воинского контингента страны в Ираке: менее половины солдат и
офицеров корпуса морской пехоты считают, что с гражданским населением следует
нормально обращаться в условиях конфликта. Перед лицом подобных данных мирное
население в условиях конфликта, возможно, предпочтет иметь дело с роботами", отмечают авторы статьи.
В материале сообщается, что в настоящее время остается нерешенным вопрос, на
важность которого обращают внимание как вышеупомянутый Петер Сингер, так и ряд
других исследователей. "Даже если робот будет действовать на основе программы, в
которой оговорены все правила начала боевых действий и открытия огня, и даже
если, благодаря тем или иным мерам, будет исключена возможность какой-либо
программной ошибки и другого технического сбоя /до чего на нынешнем уровне еще
далеко/, - даже в этом случае для робота распознать, кто именно является
противником, крайне сложно в условиях современных войн и вооруженных конфликтов.
Подобное решение должно будет основываться именно на суждении, вынесенном самим
роботом. Данная проблема становится еще сложнее, когда противник адаптируется к
ситуации, вносит коррективы в характер своих действий и даже предпринимает
попытки спрятаться среди гражданского населения.
Возможно ли будет в таком случае отдать приказ на открытие огня, если противник
прикрывается ребенком?" - задается вопросом Петер Сингер в цитируемой "Сьянс э
ви" работе "Запрограммированный для войны.
Робототехническая революция и конфликты в XXI веке" /издательство "Пингуин
пресс", 2009/.
"Поскольку невозможно заранее предусмотреть и внести в программу все
ситуации, с которыми робот рискует столкнуться, то в результате люди будут
вынуждены предоставить ему возможность выбора наиболее подходящего решения", пишут авторы статьи в "Сьянс э ви". Они считают, что это неизбежно приведет к
тому, что в электронный мозг роботов в подобном случае придется закладывать
основы морали, "то есть той сферы, которую ранее человек считал принадлежащей
исключительно ему самому". Авторы подчеркивают при этом, что все больше
специалистов-исследователей приходят к выводу о необходимости делать это в связи
с "серьезной обеспокоенностью перспективами роботизации поля боевых действий". В
то же время ученые понимают, что общественное мнение не допустит предоставления
роботам возможности совершать безнаказанные убийства".
"Однако как конкретно можно было бы включить в программу роботов нечто столь
ускользающее, как основы морали?" - спрашивают авторы. Они напоминают, что
именно данной проблеме посвящен 100-страничный доклад Калифорнийского
политехнического университета, который в 2008 году был составлен для Управления
морской пехоты США.
Авторы материала в "Сьянс э ви" констатируют, что необходимость наличия
основ морали в программах роботов связана не только с действиями военных
роботизированных систем, но и роботов, выполняющих гражданские задачи.
"В докладе Калифорнийского университета содержится мнение о необходимости
обеспечить роботу способность самообучаться, как это делают дети, - то есть на
основе пробных действий и ошибок, чтобы таким образом они могли сформировать
основы морали", - отмечается в статье научного журнала.
"Автономно действующий робот должен уметь самостоятельно принимать решение,
- говорится в статье. - Однако в таком случае встает вопрос: как
запрограммировать абстрактные понятия. Можно попытаться создать пирамидальную
систему с подчинением низших понятий высшим, включая правила, на основе которых
робот будет определять, являются ли его действия этически приемлемыми. Однако в
данном случае возникает серьезная
проблема: как обеспечить роботу доступ ко всей информации, необходимой ему для
проведения данной оценки. Например, робот-водитель будет вынужден определить,
может ли он совершить маневр, чтобы избежать столкновения с одним пешеходом,
если в таком случае он создает опасную ситуацию для другого пешехода. То есть,
упрощенно говоря, роботы будут вынуждены просчитывать все возможности развития
ситуации, чтобы выбрать из них те, которые отвечают интересам наибольшего числа
людей. Но такого рода программа окажется неоперационной, так как робот будет не
в состоянии достаточно быстро просчитать все существующие возможности изменения
ситуации, даже в кратковременной перспективе. Также подобный подход открывает
возможность возникновения так называемой "логики козла отпущения", когда роботполицейский может принять решение об уничтожении человека, если сочтет, что эта
смерть позволит, например, предотвратить бунт".
"При использовании иной модели - "обратной пирамиды", то есть системы оценки
ситуации "снизу вверх", робот сам формирует собственную мораль. Для обеспечения
процесса самообучения создается специальная обучающая среда, в которой робот
будет опробовать различные схемы поведения и получит "поощрение", если его
действия соответствуют тому, что от него пытаются добиться испытатели. Таким
образом у робота постепенно сформируются моральные основы действий. Разумеется,
оказавшись в новой ситуации, такой робот сможет полагаться лишь на собственный
опыт, который может оказаться недостаточным. Более того, на нынешнем этапе
невозможно с полной достоверностью предсказать, каким будет результат подобного
процесса", - признает "Сьянс э ви".
Еще один подход заключается в том, чтобы сделать робота "исходно
добродетельным", заранее предопределив его "характер". "Но в таком случае
возникает вопрос: как робот будет определять, к использованию какой моральной
установки следует прибегнуть в том или ином случае", - говорится в материале.
"Не следует забывать, что у человека ключевую роль в обеспечении связи с его
моральными установками играют эмоции. Но действительно ли это указывает на то,
что роботам следует привить в таком случае псевдоэмоции?", - задаются вопросами
авторы статьи. Они обращают внимание на то, что на роль эмоций человека
указывают и авторы вышеупомянутого доклада Калифорнийского института. "Даже если
в отношении роботов не возникнет острой необходимости в полной степени
воспроизвести все человеческие чувства, тем не менее очевидно, что создаваемые
сложные системы будут нуждаться в существовании механизмов, позволяющих
производить такого рода оценки сложных ситуаций, возникающих вокруг робота в
человеческом обществе", - говорится в американском докладе.
"Стоит также определить, будет ли робот наделен способностью не подчиняться
приказам человека, осуществляющего мониторинг его деятельности, - например, в
том случае, если робот посчитает недопустимым осуществлять обстрел ракетами
дома, потому что проведенный им анализ ситуации указывает на то, что число
гражданских лиц в нем /в частности, женщин и детей/ значительно выше числа
повстанцев", - отмечается в докладе.
Комментируя данный пассаж, "Сьянс э ви" напоминает, что "самостоятельно
принимающий решения в моральной сфере мозг, по самому определению своему,
является непредсказуемым, поскольку он сам определяет, что справедливо, а что
нет".
В заключение авторы делают вывод, что на нынешнем этапе "ни один из
перечисленных подходов не может гарантировать идеальных этических основ"
для роботов и роботизированных систем. "Но при этом специалисты по робототехнике
напоминают, что ни один из подходов не является идеальным для обеспечения
использования человеком моральных принципов", - подчеркивают авторы статьи.
* * *
Агентство Франс Пресс /АФП/ распространило 15 августа материал о последних
достижениях США в сфере военных роботов. Он основан на данных, полученных в ходе
посещения журналистом в Мэриленде профессионального салона робототехники,
проводившегося под эгидой Управления морской пехоты США .
В корреспонденции обращается внимание на дрон-вертолет "MQ-8B Fire Scout",
начало использования которого запланировано уже в нынешнем году на одном из
фрегатов ВМФ США - "McInerney". Дрон будет предназначен для поиска судов и
лодок, перевозящих наркотики в акватории Тихого океана.
Также в Мэриленде был продемонстрирован гусеничный робот "Packbot". Он
способен не только передвигаться по сильно пересеченной местности, но и
обезвреживать взрывные устройства - в этом случае его манипулятор управляется
военным, находящимся в укрытии. В Ираке и Афганистане уже используются 2500
таких роботов, применяемых прежде всего для обезвреживания самодельных фугасов,
устанавливаемых талибами. Применение таких фугасов является причиной основного
числа потерь американского воинского контингента в данных странах.
На выставке в Мэриленде был продемонстрирован портативный облегченный
вариант данного робота, переносимый в наплечном рюкзаке. Он весит всего 6 кг.
В настоящее время вооруженные силы США располагают не менее чем 10 тыс.
роботов и роботизированных систем, а также 7 тыс. беспилотных летательных
аппаратов. Это аппараты самых различных размеров, от миниатюрного БЛА "Raven",
запускаемого броском руки, до гигантского разведывательного "Global Hawk" длиной
в 13 метров и с размахом крыльев в
35 метров. Он способен осуществлять полет на больших высотах в течение 35 часов.
ВВС США, как отмечается в депеше АФП, "на начальном этапе с опаской
относившиеся к беспилотным летательным аппаратам, в настоящее время обучают
больше операторов БЛА, чем летчиков для бомбардировщиков, истребителей и
штурмовиков.
По словам одного из представителей компаний, торгующих военными роботами,
молодые солдаты ВС США быстро обучаются управлению роботами.
По мнению Гари Кесслера, контролирующего осуществление программ создания БЛА
для ВВС США и корпуса морской пехоты, в вооруженных силах начинается "подлинная
революция дистанционно управляемых систем".
Появление роботов в армии специалист сравнивает по своей значимости с принятием
в свое время на вооружение самолетов и танков.
"Дистанционно управляемые роботизированные системы, - говорится в сообщении,
- тысячами используются в Ираке и Афганистане, осуществляя наблюдение за
противником в ходе многочасовых полетов, обстреливая его ракетами с воздуха и
выслеживая закладку фугасов. Это позволяет не подвергать опасности жизнь
американских военных, что было бы неизбежно при выполнении подобных задач".
БЛА "Predator" и "Reaper", имеющие на вооружении высокоточные ракеты
"Hellfire", периодически осуществляют рейды на северо-западе Пакистана, где
скрываются талибы и руководители "Аль-Каиды", говорится в сообщении. В начале
августа с помощью нанесения огневого удара с дрона был убит один из главарей
пакистанских талибов Байтулла Мехсуд. "В то же время пакистанские власти
утверждают, что в результате этих атак погибли и многочисленные мирные жители",
- подчеркивается в сообщении. --0--
Download