Эксперт по искусственному интеллекту оценивает рост числа чат-ботов

Прочитано: 78 раз(а)


Что, если чат-бот покажется вам другом? Что, если чат-бот продлит то, что может быть воспринято как интимные чувства к другому? Могут ли чат-боты при злонамеренном использовании представлять реальную угрозу для общества? Санту Кармакер, доцент компьютерных наук и разработки программного обеспечения, глубоко погрузился в тему ниже.

Что эти странные встречи с чат-ботами говорят о будущем ИИ?

Кармейкер: Это мало что раскрывает, потому что будущие возможности безграничны. Как определить странную встречу? Предполагая, что «странное столкновение» здесь означает, что пользователь-человек чувствует себя некомфортно во время взаимодействия с чат-ботами, мы, по сути, говорим о человеческих чувствах/чувствительности.

Необходимо задать два важных вопроса: (1) Разве у нас не случаются странные встречи, когда мы разговариваем с реальными людьми? (2) Обучаем ли мы чат-ботов ИИ быть осторожными с человеческими чувствами/чувствительностью во время разговоров?

Мы можем добиться большего, и мы добиваемся прогресса в вопросах равенства/справедливости в ИИ. Но впереди еще долгий путь, и в настоящее время у нас нет надежной вычислительной модели для имитации человеческих чувств/чувствительности, поэтому ИИ означает «искусственный» интеллект, а не «естественный» интеллект, по крайней мере пока.

Будут ли компании выпускать некоторые чат-боты для публики в ближайшее время?

Кармейкер: С критической точки зрения такие продукты, как ChatGPT, никогда не будут готовы к работе, если у нас не будет работающей технологии искусственного интеллекта, поддерживающей непрерывное обучение на протяжении всей жизни. Мы живем в постоянно развивающемся мире, и наш опыт/мнения/знания также развиваются. Тем не менее, современные продукты ИИ в основном обучаются на фиксированном наборе исторических данных, а затем развертываются в реальной жизни в надежде, что они могут обобщать невидимые сценарии, что часто не соответствует действительности. Тем не менее, многие исследования в настоящее время сосредоточены на обучении на протяжении всей жизни, но эта область все еще находится в зачаточном состоянии.

Кроме того, такие технологии, как ChatGPT и обучение на протяжении всей жизни, преследуют ортогональные цели и дополняют друг друга. Такие технологии, как ChatGPT, могут выявить новые проблемы для исследований в области обучения на протяжении всей жизни, получая широкомасштабную обратную связь от общественности. Хотя выпуск таких продуктов, как ChatGPT, не совсем «готов к работе», он может помочь собрать большие объемы качественных и количественных данных для оценки и выявления ограничений текущих моделей ИИ. Поэтому, когда мы говорим о технологии ИИ, вопрос о том, действительно ли продукт «готов к работе», является весьма субъективным/спорным.

Если эти продукты будут выпущены с множеством ошибок, станут ли они проблемой для общества?

Кармейкер: Сбои в системе чат-бота /ИИ сильно отличаются от обычных программных сбоев, на которые мы обычно ссылаемся. Глюк обычно определяется как неожиданное поведение используемого программного продукта. Но что такое глюк для чат-бота? Каково ожидаемое поведение?

Я думаю, что общие ожидания от чат-бота заключаются в том, что разговоры должны быть актуальными, беглыми, связными и основанными на фактах.

Очевидно, что любой чат-бот/интеллектуальный помощник, доступный сегодня, не всегда актуален, быстр, связен и основан на фактах. Станет ли это проблемой общественного беспокойства, в основном зависит от того, как мы относимся к таким технологиям как общество. Если мы будем продвигать фреймворки для совместной работы человека и ИИ, чтобы извлечь выгоду из лучших людей и машин, это снизит обеспокоенность общества по поводу сбоев в системах ИИ и в то же время повысит эффективность и точность целевой задачи, которую мы хотим выполнить.

Законодатели, похоже, не решаются регулировать ИИ. Может ли это измениться?

Кармейкер: Я не вижу изменений в ближайшем будущем. Поскольку технологии и исследования ИИ развиваются с очень высокой скоростью, конкретный продукт/технология очень быстро устаревает/устаревает. Поэтому действительно сложно точно понять ограничения такой технологии за короткое время и регулировать такие технологии, создавая законы. Потому что к тому времени, когда мы обнаруживаем проблемы с технологией ИИ в массовом масштабе, создаются новые технологии, которые переключают наше внимание с предыдущих на новые. Таким образом, колебания законодателей в отношении регулирования технологии ИИ могут сохраниться.

Каковы ваши самые большие надежды на ИИ?

Кармейкер: Мы живем в эпоху информационного взрыва. Быстрая обработка большого объема информации больше не является роскошью; скорее, это стало насущной необходимостью. Моя самая большая надежда на ИИ заключается в том, что он поможет людям обрабатывать информацию в больших масштабах и с большой скоростью и, следовательно, поможет людям принимать более обоснованные решения, которые могут повлиять на все аспекты нашей жизни, включая здравоохранение, бизнес, безопасность, работу, образование, и т. д.

Есть опасения, что ИИ будет использоваться для распространения дезинформации. Справедливы ли эти опасения?

Кармейкер: У нас были минусы с самого начала существования общества. Единственный способ справиться с ними — быстро идентифицировать их и привлечь к ответственности. Одно из ключевых различий между традиционной преступностью и киберпреступностью заключается в том, что идентифицировать киберпреступника гораздо сложнее, чем обычного. Эта проверка личности является общей проблемой интернет-технологий , а не только технологией ИИ.

Технология искусственного интеллекта может предоставить мошенникам инструменты для распространения дезинформации, но если мы сможем быстро определить источник и выявить стоящие за ним мошенники, распространение дезинформации можно будет остановить. Законодатели могут предотвратить катастрофический результат, если: (1) введут строгие лицензионные требования для любого программного обеспечения, которое может генерировать и распространять новый контент в Интернете; (2) создание хорошо обеспеченной ресурсами группы по мониторингу киберпреступности с экспертами по ИИ, выступающими в качестве консультантов; (3) постоянное предоставление проверенной информации на государственных/надежных веб-сайтах, что позволит обычным людям проверять информацию из источников, которым они уже доверяют; и (4) введение обязательного базового обучения по кибербезопасности и повышение доступности образовательных материалов для общественности.

Искусственный интеллект может предсказывать редкие катастрофические события



Новости партнеров