Построив для роботов обстановку морального выбора — кого из 2-ух человек, одновременно попадающих в опасность, необходимо выручать — ученые узнали, что больше всего смертей дает отнюдь не сам выбор, а очень продолжительные рассуждения машины. О собственном опыте Алан Винфилд (Alan Winfield) из Бристольской лаборатории робототехники сообщил на конференции по автономным роботам, которая прошла 2 сентября в Бирмингеме. Коротко об исследовании передается в интернет-издании New Scientist.

Винфилд запрограммировал робота удерживать других роботов (которые изображали людей) от падения в яму. Такого рода исследование предполагает собой, по сути, иллюстрацию к основному закону робототехники А. Азимова: «Робот не способен нанести вред человеку либо собственным бездействием позволить, чтобы человеку был причинен вред».

Сначала у машины трудностей не появлялось: как только «человек» приближался к яме, робот быстро отодвигал его от опасного участка. Однако когда ученые прибавили 2-ого робота, приближавшегося к ловушке с той же скоростью, перед роботом встала проблема — кого выручать первым. Иногда ему удавалось сдержать 1-го «человека», пару раз — двоих, однако в 14 случаев из 33 робот столько времени тратил на моральные рассуждения, что оба «человека» сваливались в яму.

Винфилд признает неутешительные итоги собственного опыта и подчеркивает, что роботы все еще остаются «моральными зомби»: они, способны придерживаться конкретного кодекса поведения, однако не осознают его нравственные основания.

Научить машины принимать моральные решения могут специалисты по военной робототехнике. Рональд Аркин (Ronald Arkin) из Технологического института Джорджии разработал набор алгоритмов («этический руководитель»), который призван помочь роботам действовать на поле битвы: в каких ситуациях прекращать огонь, в какой ситуации (около школы либо клиники, к примеру) стремится свести к минимальному количеству число потерпевших.

Аркин полагает, что обучить морали военных роботов будет легче всего, так как законы войны являются четкими и прописаны в международных договорах. В отличие от живых солдат, подверженных эмоциям и аффектам, машины никогда не нарушат данные законы.

twitter.com facebook.com vkontakte.ru odnoklassniki.ru mail.ru livejournal.ru google.com yandex.ru