Искусственный интеллект может компенсировать человеческие слабости, помогая принимать лучшие решения

Прочитано: 123 раз(а)


Современная жизнь может быть полна сбивающих с толку встреч с искусственным интеллектом — подумайте о недоразумениях с чат-ботами службы поддержки клиентов или алгоритмически неуместном металле для волос в вашем плейлисте Spotify. «Эти системы искусственного интеллекта не могут эффективно работать с людьми, потому что они понятия не имеют, что люди могут вести себя, казалось бы, иррационально», — говорит Мустафа Мерт Челикок. Он доктор философии. студент, изучающий взаимодействие человека и ИИ, с идеей взять сильные и слабые стороны обеих сторон и смешать их в превосходном лице, принимающем решения.

В мире ИИ одним из примеров такого гибрида является «кентавр». Это не мифологическая лошадь — человек , а команда человек-ИИ. Кентавры появились в шахматах в конце 1990-х, когда системы искусственного интеллекта стали достаточно продвинутыми, чтобы побеждать чемпионов среди людей. Вместо матча «человек против машины» в шахматах кентавров или киборгов участвуют одна или несколько компьютерных шахматных программ и игроки-люди с каждой стороны.

«Это Формула 1 шахмат», — говорит Челикок. «Гроссмейстеры потерпели поражение. СуперИИ потерпели поражение. И гроссмейстеры, играющие с мощными ИИ, также проиграли». Как оказалось, самые успешные игроки-новички в паре с ИИ. «Новички не имеют твердого мнения» и могут создавать эффективные партнерские отношения для принятия решений со своими товарищами по команде ИИ, в то время как «гроссмейстеры думают, что они знают лучше, чем ИИ, и отвергают их, когда они не согласны, — это их падение», — отмечает Челикок.

В такой игре, как шахматы, есть определенные правила и четкая цель, которую разделяют люди и ИИ. Но в мире онлайн-покупок, плейлистов или любого другого сервиса, где человек сталкивается с алгоритмом, может не быть общей цели или цель может быть плохо определена, по крайней мере, с точки зрения ИИ. Челикок пытается исправить это, добавляя актуальную информацию о человеческом поведении, чтобы многоагентные системы — подобные кентаврам партнерские отношения людей и ИИ — могли понимать друг друга и принимать более правильные решения.

«Человек во взаимодействии человека и ИИ мало изучен», — говорит Челикок. «Исследователи не используют какие-либо модели человеческого поведения , но то, что мы делаем, явно использует когнитивную науку о человеке. Мы не пытаемся заменить людей или научить ИИ выполнять задачу. Вместо этого мы хотим, чтобы ИИ помогал людям делать лучшие решения». В случае с последним исследованием Челикок это означает помочь людям питаться более здоровой пищей.

В экспериментальной симуляции человек просматривает фургоны с едой , пытаясь решить, где поесть, с помощью своего надежного автономного автомобиля с искусственным интеллектом. Автомобиль знает, что пассажир предпочитает здоровую вегетарианскую пищу нездоровым пончикам. Имея в виду этот критерий, автомобиль с искусственным интеллектом выбрал бы кратчайший путь к грузовику с вегетарианской едой. Однако это простое решение может иметь неприятные последствия. Если кратчайший путь проходит мимо магазина пончиков, пассажир может сесть за руль, игнорируя ИИ. Эта очевидная человеческая иррациональность противоречит самому логическому решению.

Модель Челикока уникальным образом позволяет избежать этой проблемы, помогая ИИ понять, что люди непоследовательны во времени. «Если вы спросите людей, вы хотите 10 долларов прямо сейчас или 20 завтра, и они выберут 10 сейчас, но потом вы снова спросите, хотите ли вы 10 долларов через 100 дней или 20 через 101 день, и они выберут 20, то есть непоследовательно», — поясняет он. «Разрыв не обрабатывается одинаково. Именно это мы подразумеваем под непостоянством во времени, и типичный ИИ не принимает во внимание нерациональные или непостоянные во времени предпочтения, например, прокрастинацию, изменение предпочтений на лету или искушение пончики». В исследовании Челикок автомобиль с искусственным интеллектом выясняет, что если ехать немного длиннее, то можно будет обойти магазин пончиков, что приведет к более здоровому исходу для пассажира.

«У ИИ есть уникальные сильные и слабые стороны, как и у людей», — говорит Челикок. «Человеческая слабость — это иррациональное поведение и несогласованность во времени, которые ИИ может исправить и дополнить». С другой стороны, если возникает ситуация, когда ИИ ошибается, а человек прав, ИИ научится вести себя в соответствии с человеческими предпочтениями при переопределении. Это еще один побочный результат математического моделирования Челикока.

По словам Челикока, сочетание моделей человеческого познания со статистикой позволяет системам ИИ быстрее определять поведение людей. Это также более эффективно. По сравнению с обучением системы искусственного интеллекта тысячам изображений для обучения визуальному распознаванию, взаимодействие с людьми является медленным и дорогим, поскольку изучение предпочтений только одного человека может занять много времени. Челикок снова проводит сравнение с шахматами: человек-новичок или система ИИ могут понимать правила и физические движения, но им обоим может быть трудно понять сложные намерения гроссмейстера. Исследования Челикока заключаются в поиске баланса между оптимальными и интуитивными движениями, построении реального кентавра с помощью математики.

Искусственный интеллект может компенсировать человеческие слабости, помогая принимать лучшие решения



Новости партнеров