Ученые учат роботов принимать самостоятельные решения, отвергая команды

Прочитано: 714 раз(а)


девушка роботРобот должен подчиняться человеку. Современные ученые считают иначе. Машина должна иметь право отказаться от команды человека.

Большинство рассказов и романов вращается вокруг нескольких знаменитых законов робототехники, которые ещё в 1942 году, написал не менее известный автор Айзека Азимова. С развитием автономной робототехники и искусственного интеллекта в ближайшие десятилетия всё немного меняется.

Три основных закона робототехники:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человек получил вред.
  2. Робот должен подчиняться команде человека, кроме случаев, когда эти команды противоречат первому закону.
  3. Робот должен защищать себя от любых повреждений, кроме случаев, когда эта защита противоречит первому или второму закону.

Законов больше, и некоторые из них свободнее

законы робототехникиСоблюдение законов робототехники практически не препятствует тому, чтобы настал тот литературный судный день из серии Терминатор или чтобы нас Матрица использовала как крайне неэффективные батарейки и так далее.

Если робот соблюдает законы робототехники никому вреда это не приносит. А что насчет военных роботов? Ведь их цель — уничтожить человека – врага, но есть ведь закон робототехники Айзека Азимова, который гласит, что роботы не могут причинить вред человечеству. Этот закон должны соблюдать все.

Некоторые другие авторы изменили этот первоначальный закон робототехники и дали роботам больше свободы. Вместо четкого «робот должен подчиняться человеку», здесь вы найдете «робот должен сотрудничать с человеком» , и единственной достаточно ярким универсальным законом «робот не может причинить вред человеку».

Что делать, если робот скажет НЕТ?

robotИменно в третьем законе сообщается: «робот должен защищать себя от повреждений»,  но с добавлением, что только в том случае, если это не противоречит предыдущими законами. И поскольку второй закон гласит, чтобы робот подчинялся командам человека, то командf, пусть робот прыгает в пропасть, имеет более высокий приоритет.

Исследователи из Университета в штате Массачусетс начали разрабатывать робота, принятие решений которого является более сложным и дает право на команду отклонить.

Это может выглядеть как игра с огнем, но имеет свое обоснование. На практике роботы не могут слушать всех, только уполномоченное лицо – его владелец и ответственный персонала. Если ваша правнучка получит на Рождество интеллектуального плюшевого мишку, конечно, было бы плохо, чтобы медведь выполнял команды детей из микрорайона, например такой, чтобы отрезать себе ногу.

Решение может выглядеть следующим образом:

  1. Я знаю, как выполнить команду X?
  2. Я физически не в состоянии выполнить команду X?
  3. Я в состоянии выполнить команду X прямо сейчас?
  4. Имеет ли оператор достаточный авторитет чтобы командовать?
  5. Не повредит ли мне команда Х?

Уверенный в себе робота уже есть

робот не подчиняется человекуРобот Dempster получает команду повернуться и идти вперед. С помощью датчиков узнает, что перед ним препятствие.

От оператора получает команду, чтобы информацию о препятствие игнорировал и продолжал в том же направлении. Робот отказывается выполнять, потому что оператор не имеет достаточного авторитета для того, чтобы из-за него робот рискнул своим собственным здоровьем, натыкаясь на стены.

Это нормально и необходимо, считают разработчики. С развитием робототехники следует совершенствовать и законодательство связанное с роботами. Очень скоро роботы внедряться во все сферы жизнедеятельности человека, поэтому важно продумать безопасный и эргономичный вариант взаимодействия людей и машин.



Новости партнеров