Как расследовать аварию, вызванную роботом, и почему важно, чтобы мы это делали

Прочитано: 220 раз(а)


Роботы все больше и больше входят в нашу повседневную жизнь. Они могут быть невероятно полезными (бионические конечности, роботы-газонокосилки или роботы, доставляющие еду людям на карантине) или просто развлекательными (собаки-роботы, танцующие игрушки и акробатические дроны). Воображение, пожалуй, единственный предел того, что роботы смогут делать в будущем.

Однако что происходит, когда роботы не делают того, что мы от них хотим, или делают это так, что причиняют вред? Например, что произойдет, если бионическая рука попадет в аварию?

искусственная рука

Несчастные случаи с участием роботов вызывают озабоченность по двум причинам. Во-первых, увеличение числа роботов, естественно, приведет к увеличению числа несчастных случаев, в которые они вовлечены. Во-вторых, мы совершенствуемся в создании более сложных роботов. Когда робот сложнее, сложнее понять, почему что-то пошло не так.

Большинство роботов работают на различных формах искусственного интеллекта (ИИ). ИИ способны принимать решения, подобные человеческим (хотя они могут принимать объективно хорошие или плохие решения). Этими решениями может быть что угодно, от идентификации объекта до интерпретации речи.

ИИ обучен принимать эти решения за робота на основе информации из обширных наборов данных. Затем ИИ проверяются на точность (насколько хорошо они делают то, что мы от них хотим), прежде чем они поставят задачу.

ИИ можно проектировать по-разному. В качестве примера рассмотрим робот-пылесос. Его можно спроектировать так, чтобы всякий раз, когда он ударяется о поверхность, он перенаправлялся в случайном направлении. И наоборот, он может быть спроектирован так, чтобы наносить на карту свое окружение, находить препятствия, охватывать все участки поверхности и возвращаться на базу для зарядки. В то время как первый пылесос получает данные от своих датчиков, второй отслеживает эти данные во внутренней картографической системе. В обоих случаях ИИ получает информацию и принимает на ее основе решение.

Чем на более сложные вещи способен робот, тем больше типов информации он должен интерпретировать. Это также может быть оценка нескольких источников одного типа данных, таких как, в случае слуховых данных, живой голос, радио и ветер.

По мере того, как роботы становятся все более сложными и способны воздействовать на разнообразную информацию, становится еще более важным определить, на какую информацию действовал робот, особенно в случае причинения вреда.

Аварии случаются

Как и в случае с любым продуктом, с роботами что-то может пойти не так. Иногда это внутренняя проблема, например, робот не распознает голосовую команду. Иногда это внешнее — датчик робота был поврежден. А иногда это может быть и то, и другое, например, робот не предназначен для работы на коврах и «спотыкается». При расследовании несчастных случаев с роботами должны учитываться все возможные причины.

Компания Universal Robots продали 25000-го робота (cobot)

Хотя может быть неудобно, если робот повреждается, когда что-то идет не так, нас гораздо больше беспокоит, когда робот причиняет вред человеку или не может его уменьшить. Например, если бионическая рука не может схватить горячий напиток, он опрокидывает его на владельца; или если робот-помощник не может зарегистрировать сигнал бедствия, когда немощный пользователь упал.

Почему расследование несчастных случаев с участием роботов отличается от расследования несчастных случаев с участием людей? Примечательно, что у роботов нет мотивов. Мы хотим знать, почему робот принял такое решение, основываясь на конкретном наборе входных данных, которые у него были.

В примере с бионической рукой было ли это недопониманием между пользователем и рукой? Робот перепутал несколько сигналов? Неожиданно заблокировать? В примере с падением человека, может ли робот не «услышать» зов о помощи из-за громкого вентилятора? Или у него были проблемы с интерпретацией речи пользователя?

Черный ящик

Расследование происшествий с участием роботов имеет ключевое преимущество по сравнению с расследованием происшествий с участием людей: есть потенциал для встроенного свидетеля. У коммерческих самолетов есть аналогичный свидетель: черный ящик , построенный так, чтобы выдерживать авиакатастрофы и предоставлять информацию о том, почему произошла катастрофа. Эта информация невероятно ценна не только для понимания инцидентов, но и для предотвращения их повторения.

В рамках RoboTIPS , проекта, направленного на ответственные инновации для социальных роботов (роботов, которые взаимодействуют с людьми), мы создали то, что мы называем этическим черным ящиком : внутреннюю запись входных данных робота и соответствующих действий. Этический черный ящик разработан для каждого типа роботов, в которых он обитает, и предназначен для записи всей информации, на которую действует робот. Это может быть голосовая, зрительная или даже мозговая активность.

Мы тестируем этический черный ящик на различных роботах как в лабораторных условиях, так и в смоделированных аварийных условиях. Цель состоит в том, чтобы этический черный ящик стал стандартом для роботов всех производителей и приложений.

Хотя данные, записанные этическим черным ящиком, по-прежнему необходимо интерпретировать в случае аварии, наличие этих данных в первую очередь имеет решающее значение для проведения расследования.

Процесс расследования дает возможность убедиться, что одни и те же ошибки не повторяются дважды. Этический черный ящик — это способ не только создавать лучших роботов, но и ответственно внедрять инновации в захватывающей и динамичной области.

Роборука теперь может хватать незнакомые предметы



Новости партнеров