Приписывание машинам человеческих черт не является чем-то новым, но с развитием генеративного искусственного интеллекта антропоморфизм приобретает новое измерение. Эта тенденция поднимает важные философские и этические вопросы, одновременно переопределяя наши отношения с технологиями.
Если вы когда-либо вводили «привет» или «спасибо» в ChatGPT, то вы виновны в антропоморфизме — сложном для понимания словечке, которое все чаще встречается в обсуждениях искусственного интеллекта (ИИ). Но что именно оно означает?
В широком смысле антропоморфизм — это приписывание человеческих характеристик нечеловеческим сущностям, таким как животные и предметы. Эта концепция также была применена к гуманоидным роботам и, в последнее время, к ИИ — особенно генеративному ИИ. В отличие от специализированного ИИ, который используется для определенных целей, таких как распознавание лиц, генеративный ИИ (включая ChatGPT) может генерировать текст, изображения и другие типы контента в ответ на подсказку.
Хотя очеловечивание систем GenAI остается почти незамеченным, эта тенденция поднимает вопросы о самом определении человечности и интеллекта, а также о наших отношениях с этими новыми технологиями. Есть ли риск в том, чтобы обращаться с машиной так же, как с человеком?
Антропоморфный с самого начала
Антропоморфизм машин не является чем-то новым. Еще в 1950 году британский математик и ученый-компьютерщик Алан Тьюринг предложил радикальный способ мышления о машинном интеллекте. В своем тесте Тьюринга человек-оценщик должен определить, является ли сущность, с которой он общается посредством письменного текста, человеком или машиной. Идея состоит в том, чтобы оценить, насколько машины способны демонстрировать интеллект, подобный человеческому.
Эта новаторская работа Тьюринга иллюстрирует нашу тенденцию приписывать машинам человеческие характеристики и закладывает основу для дальнейших исследований антропоморфизма.
«Обычно мы ожидаем, что технология или машина будут точными, конкретными, быстрыми и гораздо более эффективными, чем мы», — говорит Дэниел Хуттенлохер, декан Шварцманского колледжа вычислительной техники Массачусетского технологического института и обладатель звания почетного доктора EPFL в 2024 году. «Результаты GenAI кажутся человеческими, потому что они демонстрируют человекоподобные характеристики. Они неточны, адаптивны и удивительны».
Технология, похожая на нас
Аббревиатура ИИ, конечно, содержит слово «интеллект», но также — и это более важно — слово «искусственный». Тем не менее, Йохан Рохель, преподаватель EPFL и исследователь этики и законов инноваций, объясняет: «Системы ИИ основаны на огромных наборах данных и отражают решения, которым их научили принимать разработчики, передавая собственные ценности, убеждения и мораль разработчиков».
Часто антропоморфизм начинается с проектирования интерфейсов систем ИИ. Другими словами, причина, по которой пользователи антропоморфизируют машины ИИ, заключается в том, что машины изначально были разработаны для отображения человеческих характеристик. Например, у Alexa от Amazon теплый голос и человеческое имя, а ChatGPT такой же вежливый и дружелюбный, как и человек.
Эти характеристики были включены, чтобы сделать машины простыми и приятными в использовании. «Лучшие цифровые системы проектируются и создаются с учетом потребностей пользователя», — говорит Рошель. «Чем более интуитивно понятно взаимодействие с ними, тем легче их будут использовать».
Однако заставить машины выглядеть людьми не так просто. «Это настоящая техническая задача», — говорит Марсель Салате, соруководитель Центра искусственного интеллекта EPFL. «Идеально антропоморфная система искусственного интеллекта должна будет полностью владеть человеческим языком, включая все его нюансы, и уметь распознавать эмоции и реагировать соответствующим образом, обрабатывать информацию в режиме реального времени, адаптироваться к индивидуальным пользователям и так далее».
Формирование связей
Когда ChatGPT желает вам удачи в вашем мероприятии после того, как вы попросили его дать вам идеи для названия мероприятия, это делает взаимодействие более интересным и эмоциональным — и создает впечатление дружеских отношений. Этот вид антропоморфизма — стратегический ход, используемый разработчиками систем, чтобы заставить пользователей сформировать связь с машиной.
Согласно недавнему исследованию доцента EPFL Роберта Уэста, когда пользователи взаимодействуют с системой ИИ по определенному вопросу, и система имеет доступ к личной информации пользователей, система фактически может изменить их мнение. Это поднимает вопросы о социальном влиянии ИИ, поскольку его можно использовать не только как усовершенствованную цифровую технологию, но и для создания разговоров, способных повлиять на наши решения.
Можем ли мы доверять этим виртуальным партнерам?
В сфере здравоохранения разрабатывается все больше антропоморфных систем, включая гуманоидных роботов и чатботов моральной поддержки, для обслуживания и помощи пациентам. Такие очеловеченные, персонализированные виртуальные системы предназначены для установления доверия и формирования связей.
«Сегодняшние пользователи все больше информированы и осознают потенциал использования цифровых технологий», — говорит Рошель. «И растет спрос на системы, которым они могут доверять. Это также отражено в законодательстве. Хотя точное определение «доверия» может различаться, одним из ключевых аспектов является то, что оно развивается через человеческие отношения.
«Однако в данном случае мы имеем дело с отношениями человека и машины. Все функции, которые создают у пользователей впечатление, что они взаимодействуют с человеком, предназначены для создания доверия, но эти функции не всегда явны».
Например, возьмите способ, которым ChatGPT доставляет свои ответы, «как будто кто-то печатает ответ, как в приложении для обмена сообщениями», — говорит Роше. «Пользователи, очевидно, знают, что ChatGPT — не человек, но этот скрытый способ имитации разговора с человеком побуждает пользователей формировать своего рода отношения с машиной — машиной, которая притворяется похожей на нас».
Такие симулированные отношения с машиной могут выходить за рамки светских разговоров и сердечных ответов. В фильме «Она», выпущенном в 2013 году, главный герой, которого играет Хоакин Феникс, влюбляется в свою голосовую помощницу, которую играет Скарлетт Йоханссон. Фильм поднимает вопросы о личных отношениях и о том, как генеративный ИИ может влиять на наше поведение.
«Доверие часто строится путем обмена личной и конфиденциальной информацией, которая может быть крайне разрушительной, если попадет в чужие руки», — говорит Салате. «На карту поставлена конфиденциальность пользователей».
Вопрос безопасности и ответственности
Если мы считаем системы ИИ равными себе, должны ли они быть виноваты, если, например, в представленном нами эссе есть ошибки? «Это означало бы, что системы ИИ могут быть привлечены к ответственности так же, как и отдельные лица», — говорит Рошель. «Но мы не должны забывать, что их интеллект просто искусственный. Машины никогда не могут быть привлечены к ответственности, потому что они не полностью автономны. Они не могут принимать решения, отличные от тех, на которые они были запрограммированы. Нам нужно искать человека, стоящего за машиной. Но на ком лежит ответственность — на разработчике или на пользователе?».
«Мне нравится использовать метафору вилки в тостере», — говорит Хуттенлохер. «Если вы посмотрите на фотографии первых тостеров 1900-х годов, вы вскоре увидите, что было легко получить удар током, воткнув вилку. В конечном итоге были введены стандарты и меры предосторожности, чтобы сделать тостеры безопасными и не допустить, чтобы такое неправильное использование стало обычной практикой».
Нам нужно сделать то же самое с ИИ. Нам нужно ввести гарантии против неправомерного использования технологии, установить правовую ответственность и принять стандарты, понятные всем».
По словам Рошель, «прозрачность будет иметь первостепенное значение. Нам нужно напомнить людям, что это всего лишь машины и они способны совершать ошибки. Это поможет снизить риск неправомерного использования».
Законодатели все еще спорят о том, как обеспечить прозрачность и объяснимость в системах ИИ. Закон Европейского союза об ИИ предельно ясен: генеративные системы ИИ должны быть спроектированы и представлены таким образом, чтобы было совершенно ясно, что они не являются людьми. Пользователи должны полностью осознавать, что они взаимодействуют с машиной.
ИИ и человечество: создание продуманного и проницательного партнерства
«Мы можем многому научиться у ИИ», — говорит Хуттенлохер. «Например, AlphaGo разработала стратегии для го, о которых даже лучшие игроки не задумывались, привнеся в игру совершенно новое измерение. Я рассматриваю ИИ как изобретение, которое может улучшить, а не заменить человеческие возможности».
Салате отмечает, что «антропоморфизируя системы ИИ, мы можем ускорить внедрение технологий, но это также поднимает фундаментальные вопросы о роли людей в мире, где все труднее отличить людей от машин. По мере дальнейшего развития ИИ нам нужно будет убедиться, что наше взаимодействие с машинами — каким бы естественным оно ни казалось — не заставит нас упустить из виду то, что делает нас людьми».
По мнению Рочел, «разработчики систем ИИ, заинтересованные стороны, законодатели и пользователи должны работать вместе, чтобы гарантировать, что технология останется инструментом в руках людей, а не станет силой, которая заменяет их или манипулирует ими».