Не все, что мы называем ИИ, на самом деле является «искусственным интеллектом»

Прочитано: 112 раз(а)


В августе 1955 года группа ученых запросила финансирование в размере 13 500 долларов США для проведения летнего семинара в Дартмутском колледже в Нью-Гэмпшире. Областью, которую они предложили исследовать, был искусственный интеллект (ИИ).

Хотя запрос на финансирование был скромным, гипотеза исследователей не была такой : «каждый аспект обучения или любая другая характеристика интеллекта в принципе может быть описана настолько точно, что можно создать машину для их моделирования».

С тех пор, как это скромное начало, фильмы и средства массовой информации романтизировали ИИ или представили его как злодея. Тем не менее, для большинства людей ИИ остался предметом обсуждения, а не частью сознательного жизненного опыта.

ИИ пришел в нашу жизнь

В конце прошлого месяца ИИ в форме ChatGPT вырвался из научно-фантастических спекуляций и исследовательских лабораторий на настольные компьютеры и телефоны широкой публики. Это то, что известно как «генеративный ИИ» — внезапно умело сформулированная подсказка может создать эссе, составить рецепт и список покупок или создать стихотворение в стиле Элвиса Пресли.

В то время как ChatGPT был самым впечатляющим участником за год успеха генеративного ИИ, аналогичные системы продемонстрировали еще более широкий потенциал для создания нового контента с подсказками преобразования текста в изображение, используемыми для создания ярких изображений, которые даже выиграли художественные конкурсы.

Возможно, у ИИ еще нет живого сознания или теории разума, популярной в научно-фантастических фильмах и романах, но он приближается, по крайней мере, к разрушению того, что, как мы думаем , могут делать системы искусственного интеллекта .

Исследователи, работающие в тесном контакте с этими системами, потеряли сознание от перспективы разумности , как в случае с большой языковой моделью (LLM) Google LaMDA. LLM — это модель, обученная обрабатывать и генерировать естественный язык.

Генеративный ИИ также вызвал опасения по поводу плагиата, эксплуатации оригинального контента, используемого для создания моделей, этики манипулирования информацией и злоупотребления доверием и даже « конца программирования».

В центре всего этого находится вопрос, который становится все более актуальным после летнего семинара в Дартмуте: отличается ли ИИ от человеческого интеллекта ?

Что на самом деле означает «ИИ»?

Чтобы квалифицироваться как ИИ, система должна демонстрировать определенный уровень обучения и адаптации. По этой причине системы принятия решений, автоматизация и статистика не являются ИИ.

В широком смысле ИИ можно разделить на две категории: искусственный узкий интеллект (ANI) и искусственный общий интеллект (AGI). На сегодняшний день АГИ не существует.

Ключевой задачей для создания общего ИИ является адекватное моделирование мира со всей полнотой знаний последовательным и полезным образом. Это масштабное мероприятие, если не сказать больше.

Большая часть того, что мы сегодня знаем как ИИ, имеет узкий интеллект, когда конкретная система решает конкретную проблему. В отличие от человеческого интеллекта, такой узкий интеллект ИИ эффективен только в той области, в которой он обучен: обнаружение мошенничества, распознавание лиц или социальные рекомендации, например.

Однако ОИИ будет функционировать так же, как люди. На данный момент наиболее ярким примером попытки достичь этого является использование нейронных сетей и «глубокого обучения», обученного на огромных объемах данных.

Нейронные сети вдохновлены тем, как работает человеческий мозг. В отличие от большинства моделей машинного обучения, которые выполняют вычисления на обучающих данных , нейронные сети работают, передавая каждую точку данных одну за другой через взаимосвязанную сеть, каждый раз корректируя параметры.

По мере того, как через сеть проходит все больше и больше данных, параметры стабилизируются; конечным результатом является «обученная» нейронная сеть, которая затем может выдавать желаемый результат на новых данных — например, распознавать, содержит ли изображение кошку или собаку.

Значительный скачок вперед в области искусственного интеллекта сегодня обусловлен технологическими улучшениями в том, как мы можем обучать большие нейронные сети, корректируя огромное количество параметров при каждом запуске благодаря возможностям крупных инфраструктур облачных вычислений. Например, GPT-3 (система искусственного интеллекта, на которой работает ChatGPT) — это большая нейронная сеть со 175 миллиардами параметров .

Что нужно для работы ИИ?

ИИ нужны три вещи, чтобы быть успешным.

Во-первых, ему нужны качественные, непредвзятые данные, и их много. Исследователи, создающие нейронные сети, используют большие наборы данных , которые появились по мере оцифровки общества.

Co-Pilot, предназначенный для расширения возможностей программистов-людей, извлекает данные из миллиардов строк кода, размещенных на GitHub. ChatGPT и другие крупные языковые модели используют миллиарды веб-сайтов и текстовых документов, хранящихся в сети.

Инструменты преобразования текста в изображение, такие как Stable Diffusion, DALLE-2 и Midjourney, используют пары изображение-текст из наборов данных, таких как LAION-5B . Модели искусственного интеллекта будут продолжать развиваться, становясь все более изощренными и влиятельными, поскольку мы все больше оцифровываем нашу жизнь и предоставляем им альтернативные источники данных, такие как смоделированные данные или данные из игровых настроек, таких как Minecraft .

ИИ также нуждается в вычислительной инфраструктуре для эффективного обучения. По мере того, как компьютеры становятся все более мощными, модели, которые сейчас требуют интенсивных усилий и крупномасштабных вычислений, в ближайшем будущем могут обрабатываться локально. Например, Stable Diffusion уже можно запускать на локальных компьютерах, а не в облачных средах.

Третья потребность в ИИ — улучшенные модели и алгоритмы. Системы, управляемые данными, продолжают быстро развиваться в одной области за другой, когда-то считавшейся территорией человеческого познания.

Однако, поскольку мир вокруг нас постоянно меняется, системы ИИ необходимо постоянно переобучать, используя новые данные. Без этого важного шага системы ИИ будут давать фактически неверные ответы или не будут учитывать новую информацию, появившуюся после их обучения.

Нейронные сети — не единственный подход к ИИ. Другой видный лагерь в исследованиях искусственного интеллекта — это символический ИИ — вместо того, чтобы переваривать огромные наборы данных, он опирается на правила и знания, подобные человеческому процессу формирования внутренних символических представлений конкретных явлений.

Но за последнее десятилетие баланс сил сильно сместился в сторону подходов, основанных на данных: «отцы-основатели» современного глубокого обучения недавно были удостоены премии Тьюринга , эквивалентной Нобелевской премии в области компьютерных наук.

Данные, вычисления и алгоритмы составляют основу будущего ИИ. Все указывает на то, что в обозримом будущем во всех трех категориях будет достигнут быстрый прогресс.

Не все, что мы называем ИИ, на самом деле является «искусственным интеллектом»



Новости партнеров