Роботы, которые могут точно имитировать действия и движения людей в режиме реального времени, могут быть невероятно полезны, поскольку они могут научиться выполнять повседневные задачи определенными способами без необходимости тщательного предварительного программирования для этих задач. Хотя методы, позволяющие имитировать обучение, значительно улучшились за последние несколько лет, их эффективность часто снижается из-за отсутствия соответствия между телом робота и телом его пользователя-человека.
Исследователи из U2IS, ENSTA Paris, недавно представили новую модель, основанную на глубоком обучении , которая может улучшить возможности имитации движения гуманоидных робототехнических систем. Эта модель, представленная в статье, предварительно опубликованной на arXiv, рассматривает имитацию движения как три отдельных шага, призванных уменьшить проблемы взаимодействия человека и робота, о которых сообщалось в прошлом.
«Эта ранняя исследовательская работа направлена на улучшение онлайн-имитации человека и робота путем перевода последовательностей совместных положений из области человеческих движений в область движений, достижимых данным роботом, таким образом, ограниченных его воплощением», — Луи Аннаби, Зики Ма и Сао Май Нгуен написали в своей статье. «Используя возможности обобщения методов глубокого обучения, мы решаем эту проблему, предлагая модель нейронной сети кодировщика-декодера , выполняющую перевод из домена в домен».
Модель, разработанная Аннаби, Ма и Нгуеном, разделяет процесс имитации человека и робота на три ключевых этапа, а именно: оценка позы, перенацеливание движения и управление роботом. Во-первых, он использует алгоритмы оценки позы для прогнозирования последовательностей положений суставов скелета, которые лежат в основе движений, демонстрируемых человеческими агентами.
Впоследствии модель преобразует эту предсказанную последовательность положений суставов скелета в аналогичные положения суставов, которые реально могут быть воспроизведены телом робота. Наконец, эти преобразованные последовательности используются для планирования движений робота, что теоретически приводит к динамическим движениям, которые могут помочь роботу выполнить поставленную задачу.
«Для обучения такой модели можно было бы использовать пары связанных движений робота и человека, [однако] такие парные данные на практике встречаются крайне редко, и их утомительно собирать», — пишут исследователи в своей статье. «Поэтому мы обращаемся к методам глубокого обучения для непарного перевода между доменами, которые мы адаптируем для имитации человека и робота».
Аннаби, Ма и Нгуен оценили производительность своей модели в серии предварительных тестов, сравнив ее с более простым методом воспроизведения совместной ориентации, не основанным на глубоком обучении. Их модель не достигла тех результатов, на которые они надеялись, что позволяет предположить, что нынешние методы глубокого обучения, возможно, не смогут успешно перенацеливать движения в реальном времени.
Теперь исследователи планируют провести дальнейшие эксперименты, чтобы выявить потенциальные проблемы своего подхода, чтобы они могли их решить и адаптировать модель для улучшения ее производительности. Результаты команды на данный момент показывают, что, хотя методы глубокого обучения без учителя могут использоваться для имитации обучения роботов, их производительность все еще недостаточно хороша для их применения на реальных роботах.
«Будущая работа расширит текущее исследование в трех направлениях: дальнейшее исследование неудач текущего метода, как объяснено в последнем разделе, создание набора данных парных данных о движении из имитации человека-человека или имитации робота-человека и улучшение модели. архитектуры, чтобы получить более точные прогнозы ретаргетинга», — заключают исследователи в своей статье.