Расчеты показывают, что люди не могут содержать суперинтеллектуальные машины

Прочитано: 2005 раз(а)
1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд (1 голосов, среднее: 1,00 из 5)
Loading ... Loading ...


В новом исследовании исследователи из Института человеческого развития им. Макса Планка (Германия) говорят, что они показали, что искусственный интеллект в категории, известной как «суперинтеллектуальный», не сможет сдержать людей с помощью конкурирующего программного обеспечения.

Это … звучит не очень многообещающе. Но действительно ли мы все обречены поклоняться нашим разумным правителям ИИ?

Берлинский институт человеческого развития изучает, как люди учатся — и как мы впоследствии создаем машины и обучаем их обучению.   — это тот, который превосходит человеческий интеллект и может научить себя новому, недоступному человеку. Это явление вызывает много размышлений и исследований.

В некоторых возможностях суперинтеллектуальные ИИ уже существуют. «Уже есть машины, которые самостоятельно выполняют определенные важные задачи, а программисты полностью не понимают, как они этому научились», — объясняет соавтор исследования Мануэль Себриан. «Поэтому возникает вопрос, может ли это в какой-то момент стать неконтролируемым и опасным для человечества».


Математики, например, используют сложное машинное обучение, чтобы помогать находить выбросы для известных доказательств. Ученые используют машинное обучение, чтобы придумывать новые молекулы-кандидаты для лечения болезней. Да, большая часть этого исследования включает в себя решение «грубой силы» — простой факт, что компьютеры могут выполнять миллиарды вычислений и сокращать эти проблемы с десятилетий или даже столетий до дней или месяцев.

Из-за того количества, которое компьютерное оборудование может обработать за один раз, не всегда легко определить границу, где количество становится качеством. Люди боятся ИИ, который может научиться сам себя, и Три закона робототехники Айзека Азимова (и поколения их вариаций) стали инструментами того, как люди представляют себе, что мы можем защитить себя от мошеннического или злого ИИ. Законы гласят, что робот не может причинять вред людям и не может быть проинструктирован, чтобы причинять вред людям.

«Мы утверждаем, что полное сдерживание в принципе невозможно из-за фундаментальных ограничений, присущих самому вычислению. Предполагая, что сверхразум будет содержать программу, которая включает в себя все программы, которые могут быть выполнены универсальной машиной Тьюринга на входе, потенциально столь же сложном, как состояние мира, строгое сдерживание требует моделирования такой программы, что теоретически (и практически) невозможно. . »
По сути, сверхразумный ИИ приобретет столько знаний, что даже спланировать достаточно большой контейнер будет выше наших человеческих возможностей. Не только это, но нет никакой гарантии, что мы сможем проанализировать то, что ИИ решил, что это лучший носитель. Вероятно, он не будет похож на наши рукотворные неуклюжие языки программирования.

Это может показаться пугающим, но это также чрезвычайно важная информация для ученых. Без фантома «отказоустойчивого алгоритма» компьютерные исследователи могут вложить свою энергию в другие планы и проявить большую осторожность.

Расчеты показывают, что люди не могут содержать суперинтеллектуальные машины



Новости партнеров

Загрузка...