Языки жестов были разработаны странами по всему миру, чтобы соответствовать местному стилю общения, и каждый язык состоит из тысяч знаков. Это сделало языки жестов сложными для изучения и понимания.
Использование искусственного интеллекта для автоматического перевода знаков в слова, известное как распознавание языка жестов на уровне слов, теперь получило повышение точности благодаря работе исследовательской группы под руководством Университета Осаки Метрополитен. Результаты были опубликованы в IEEE Access.
Предыдущие методы исследования были сосредоточены на сборе информации об общих движениях подписчика. Проблемы с точностью возникали из-за различных значений, которые могли возникнуть из-за тонких различий в форме рук и взаимосвязи положения рук и тела.
Доцент Высшей школы информатики Кацуфуми Иноуэ и доцент Масакадзу Ивамура работали с коллегами из Индийского технологического института Рурки, чтобы улучшить точность распознавания ИИ. Они добавили такие данные, как выражение рук и лица , а также скелетную информацию о положении рук относительно тела, к информации об общих движениях верхней части тела подписывающего.
«Нам удалось повысить точность распознавания языка жестов на уровне слов на 10–15% по сравнению с традиционными методами», — сказал профессор Иноуэ. «Кроме того, мы ожидаем, что предложенный нами метод можно будет применять к любому языку жестов, что, как мы надеемся, приведет к улучшению общения с людьми с проблемами речи и слуха в разных странах».