Расшифровка ответственного искусственного интеллекта

Прочитано: 82 раз(а)


Искусственный интеллект (ИИ) сейчас очень популярен. ChatGPT, DALL-E и другие платформы на базе искусственного интеллекта предоставляют нам совершенно новые способы работы. Генеративный ИИ пишет все: от сопроводительных писем до стратегий кампаний и создает впечатляющие изображения с нуля.

Если отбросить забавные картинки, международные регулирующие органы, мировые лидеры, исследователи и представители технологической индустрии задают реальные вопросы о рисках, связанных с ИИ.

ИИ поднимает большие этические проблемы, отчасти потому, что люди — существа предвзятые. Эта предвзятость может быть усилена, когда мы тренируем ИИ. Плохо полученные или плохо управляемые данные, которые не имеют разнообразного представления, могут привести к активной дискриминации ИИ. Мы видели предвзятость в полицейских системах распознавания лиц, которые могут ошибочно идентифицировать цветных людей, или в оценках ипотечных кредитов, которые непропорционально отвергают определенные группы меньшинств. Это примеры реального вреда ИИ, когда перед запуском не были оценены соответствующие сдержки и противовесы ИИ.

Дезинформация, создаваемая искусственным интеллектом, такая как галлюцинации и дипфейки, также находится в центре внимания правительств, мировых лидеров и пользователей технологий. Никто не хочет, чтобы его лицо или голос выдавали за себя в Интернете. Большой вопрос: как мы можем использовать ИИ во благо, предотвращая при этом вред?

Введите «ответственный ИИ»

Лимин Чжу и Цинхуа Лу — лидеры исследования ответственного ИИ в CSIRO и соавторы книги « Ответственный ИИ: лучшие практики создания надежных систем ИИ». Они определяют ответственный ИИ как практику разработки и использования систем ИИ таким образом, чтобы приносить пользу отдельным лицам, группам и обществу в целом, сводя при этом к минимуму риск негативных последствий.

По согласованию с сообществами, правительством и промышленностью наши исследователи разработали восемь добровольных принципов этики ИИ. Они призваны помочь разработчикам и организациям создавать и развертывать ИИ, который является безопасным, надежным и надежным.

Благосостояние человека, общества и окружающей среды

Этот принцип объясняет, что на протяжении всего жизненного цикла системы ИИ должны приносить пользу отдельным людям, обществу и окружающей среде. От использования ИИ для улучшения рентгенологической диагностики грудной клетки до инструментов обнаружения ИИ-мусора для защиты наших водных путей — существует множество примеров использования ИИ во благо. Чтобы предотвратить вред, разработчикам ИИ необходимо подумать о потенциальном воздействии своих технологий — положительном и отрицательном — чтобы можно было расставить приоритеты и управлять ими.

Человекоориентированные ценности

Системы искусственного интеллекта должны уважать права человека , разнообразие и автономию людей. Это создает прозрачные и объяснимые системы искусственного интеллекта, основанные на человеческих ценностях . Наши исследователи обнаружили, что это выгодно компаниям: негативные отзывы были связаны с игнорированием человеческих ценностей, таких как наслаждение жизнью или послушание для пользователей Alexa от Amazon.

Но это не всегда легко, поскольку разные группы пользователей имеют разные потребности. Возьмем, к примеру , компанию Seeing AI от Microsoft , которая использует компьютерное зрение, чтобы помочь людям с нарушениями зрения. Согласно отчету компании, самой востребованной функцией этой группы пользователей была возможность узнавать людей в общественных местах. Из соображений конфиденциальности в этой функции было отказано.

Справедливость

Системы искусственного интеллекта должны быть инклюзивными и доступными. Их использование не должно включать или приводить к несправедливой дискриминации отдельных лиц, сообществ или групп. Технологию распознавания лиц Amazon критиковали за ее потенциал использования для массовой слежки, расового профилирования, а также за менее точную идентификацию цветных людей и женщин, чем белых мужчин. Необходимо учитывать социальные последствия ИИ. Прежде чем потенциально противоречивая технология станет реальностью, необходимо получить информацию и рекомендации от сообществ, на которые повлияет ИИ.

Защита конфиденциальности и безопасность

Системы искусственного интеллекта должны уважать и поддерживать права на конфиденциальность. Ваши персональные данные следует запрашивать и собирать только при необходимости, их следует надлежащим образом хранить и защищать от атак. К сожалению, это не всегда соблюдалось разработчиками. Было установлено, что Clearview AI нарушила австралийские законы о конфиденциальности, без согласия скопировав биометрическую информацию из Интернета и использовав ее в своем инструменте распознавания лиц.

Надежность и безопасность

Системы искусственного интеллекта должны надежно работать в соответствии со своим назначением. Хороший способ для компаний предотвратить вред — провести пилотные исследования с предполагаемыми пользователями в безопасных местах до того, как технология будет представлена ​​публике. Это помогает избежать таких ситуаций, как печально известный чат-бот Тэй . В конечном итоге Тэй разжигал расистские и сексистские высказывания, разжигающие ненависть, из-за непредвиденной и, следовательно, непроверенной уязвимости в системе.

Прозрачность и объяснимость

Использование ИИ должно быть прозрачным и четко раскрытым. Люди должны иметь возможность понимать влияние и ограничения инструмента, который они используют. Например, компании могли бы уточнить, что их чат-боты могут «галлюцинировать», генерируя неправильные или бессмысленные ответы. Пользователям также можно было бы предложить проверять фактическую информацию, которую они получают.

Состязательность

Системы искусственного интеллекта могут существенно повлиять на человека, сообщество, группу или окружающую среду. В таких случаях должен быть своевременный процесс, позволяющий людям оспорить использование или результаты системы ИИ. Это может включать форму отчета или кнопку, чтобы возразить, задать вопросы или сообщить о безответственном ИИ.

Подотчетность

Люди, ответственные за все части ИИ — от разработки до внедрения, — должны быть идентифицируемыми и подотчетными, при этом люди должны осуществлять надзор за системами ИИ. Ищите инструменты, разработанные теми, кто продвигает и вознаграждает этичное и ответственное поведение ИИ в компаниях, особенно на уровне руководства.

Как обнаружить плохое поведение ИИ и что с этим можно сделать?

Хотя ИИ может быть отличным инструментом общего назначения, использование алгоритмов ИИ для определения ситуаций с высокими ставками для конкретных людей — не лучшая идея. В примере из Америки человек был приговорен к более длительному тюремному заключению на основании алгоритмического решения.

«Подобные системы искусственного интеллекта «черный ящик» не позволяют пользователям и затронутым сторонам понимать и возражать против того, как были приняты решения, которые их затрагивают», — сказал Цинхуа.

«Учитывая сложность и автономность ИИ, не всегда возможно полностью проверить соблюдение всех ответственных принципов ИИ перед его развертыванием», — предупредил Лиминг.

«Это делает мониторинг ИИ со стороны пользователей критически важным. Мы призываем всех пользователей сообщать о любых нарушениях поставщику услуг или органам власти и привлекать к ответственности поставщиков услуг и продуктов ИИ, чтобы помочь нам построить наше наилучшее будущее ИИ».

Расшифровка ответственного искусственного интеллекта



Новости партнеров