Может ли искусственный интеллект (ИИ) определить, счастливы ли вы, грустны, злы или расстроены?
По данным технологических компаний , предлагающих программное обеспечение для распознавания эмоций на основе искусственного интеллекта, ответ на этот вопрос — да.
Однако это утверждение не выдерживает критики со стороны научных доказательств .
Более того, технология распознавания эмоций несет в себе ряд правовых и социальных рисков, особенно при использовании на рабочем месте.
По этим причинам Закон Европейского союза об искусственном интеллекте , вступивший в силу в августе , запрещает использование систем искусственного интеллекта для определения эмоций человека на рабочем месте, за исключением случаев, когда это необходимо по «медицинским» или «соображениям безопасности».
Однако в Австралии пока нет специального регулирования этих систем. Как я утверждал в своем представлении австралийскому правительству в ходе последнего раунда консультаций по высокорискованным системам ИИ, это необходимо срочно изменить.
Новая и растущая волна
Мировой рынок систем распознавания эмоций на основе ИИ растет. В 2022 году он оценивался в 34 млрд долларов США, а к 2027 году, как ожидается, достигнет 62 млрд долларов США.
Эти технологии работают, делая прогнозы об эмоциональном состоянии человека на основе биометрических данных, таких как частота сердечных сокращений, влажность кожи, тон голоса, жесты или выражение лица.
В следующем году австралийский технологический стартап inTruth Technologies планирует выпустить наручное устройство, которое, по его утверждению, сможет отслеживать эмоции владельца в режиме реального времени с помощью частоты сердечных сокращений и других физиологических показателей .
Основатель компании inTruth Technologies Николь Гибсон заявила, что эта технология может использоваться работодателями для мониторинга «производительности и энергии» команды или ее психического здоровья с целью прогнозирования таких проблем, как посттравматическое стрессовое расстройство.
Она также сказала, что inTruth может быть «искусственным тренером по эмоциям, который знает о вас все, включая то, что вы чувствуете и почему вы это чувствуете».
Технологии распознавания эмоций на рабочих местах в Австралии
Данных о внедрении технологий распознавания эмоций на рабочих местах в Австралии мало.
Однако нам известно, что некоторые австралийские компании использовали систему видеоинтервью, предлагаемую американской компанией HireVue , которая включала анализ эмоций на основе черт лица.
Эта система использовала движения лица и выражения для оценки пригодности кандидатов на работу. Например, кандидатов оценивали по тому, выражали ли они волнение или как они реагировали на разгневанного клиента.
В 2021 году компания HireVue удалила анализ эмоций из своих систем после официальной жалобы в США.
Распознавание эмоций может снова стать востребованным, поскольку австралийские работодатели внедряют технологии наблюдения на рабочих местах на основе искусственного интеллекта .
Отсутствие научной обоснованности
Такие компании, как inTruth, утверждают, что системы распознавания эмоций объективны и основаны на научных методах .
Однако ученые высказывают опасения, что эти системы предполагают возврат к дискредитированным областям френологии и физиогномики . То есть, использование физических или поведенческих характеристик человека для определения его способностей и характера.
Технологии распознавания эмоций во многом основаны на теориях , утверждающих, что внутренние эмоции поддаются измерению и универсально выражаются.
Однако последние данные показывают, что способы выражения эмоций существенно различаются в зависимости от культуры, контекста и личности.
Например, в 2019 году группа экспертов пришла к выводу, что «не существует объективных мер, ни по отдельности, ни в виде шаблона, которые надежно, уникально и воспроизводимо» определяют эмоциональные категории. Например, влажность кожи человека может повышаться, понижаться или оставаться неизменной, когда он злится.
В своем заявлении для The Conversation основательница inTruth Technologies Николь Гибсон сказала, что «это правда, что технологии распознавания эмоций сталкивались со значительными проблемами в прошлом», но «за последние годы ситуация существенно изменилась».
Нарушение основных прав
Технологии распознавания эмоций также ставят под угрозу основные права без надлежащего обоснования.
Было установлено, что они допускают дискриминацию по признаку расы , пола и инвалидности .
В одном случае система распознавания эмоций считывала черные лица как более злые, чем белые, даже когда оба улыбались в одинаковой степени. Эти технологии также могут быть менее точными для людей из демографических групп, не представленных в обучающих данных .
Гибсон признала обеспокоенность по поводу предвзятости в технологиях распознавания эмоций. Но она добавила, что «предвзятость присуща не самой технологии, а скорее наборам данных, используемым для обучения этих систем». Она сказала, что inTruth «стремится бороться с этими предвзятостью», используя «разнообразные, инклюзивные наборы данных».
Как инструмент наблюдения, системы распознавания эмоций на рабочем месте представляют серьезную угрозу правам на неприкосновенность частной жизни. Такие права могут быть нарушены, если конфиденциальная информация собирается без ведома сотрудника.
Также будет иметь место несоблюдение права на неприкосновенность частной жизни , если сбор таких данных не является «разумно необходимым» или не осуществляется «справедливыми средствами».
Мнения рабочих
Опрос , опубликованный ранее в этом году, показал, что только 12,9% взрослых австралийцев поддерживают технологии распознавания эмоций на основе лиц на рабочем месте. Исследователи пришли к выводу, что респонденты считают анализ лиц инвазивным. Респонденты также считают технологию неэтичной и подверженной ошибкам и предвзятости.
В исследовании, проведенном в США и также опубликованном в этом году, работники выразили обеспокоенность тем, что системы распознавания эмоций могут нанести вред их благополучию и повлиять на производительность труда.
Они боялись, что неточности могут создать ложное впечатление о них. В свою очередь, эти ложные впечатления могли помешать продвижению по службе и повышению зарплаты или даже привести к увольнению.
Как заявил один из участников:
«Я просто не понимаю, как это может быть чем-то иным, кроме разрушительного воздействия на меньшинства на рабочих местах».