Американским военным роботам «прошьют» нормы морали, чтобы они не были убийцами типа Терминатора

Исследователи из Университета Тафтса, возглавляемые профессором Мэттиасом 2014-05-17_203401Шюцем, занимаются проблемами робототехнической морали и этики уже достаточно давно, пишет DailyTechInfo. Они пытаются разложить принципы человеческой морали на набор более простых основных правил, соблюдение которых позволит роботам подражать поведению высокоморального человека.

Разрабатываемая учеными система правил формализуется в структуру алгоритмов, которые могут быть включены в систему ИИ. Внедрение этих алгоритмов позволит автоматической системе оправдывать свои действия и обходить набор четких правил в тех случаях, если поведение системы может выйти за рамки общепринятых моральных норм.

Примером может послужить следующая ситуация. Допустим, роботу-санитару поручено доставить раненого бойца к ближайшему медицинскому пункту для оказания ему там помощи. Но в момент транспортировки раненого на пути робота встречается еще один раненый человек, находящийся в критической ситуации. «Моральный компас» позволит роботу прервать выполнение текущего основного задания, оценить имеющуюся ситуацию и принять решение о немедленном оказании помощи найденному человеку или о продолжении выполнения первоначальной задачи по транспортировке первого человека.