Генеральная Ассамблея ООН рассмотрит потенциальные риски и выгоды ИИ

Прочитано: 107 раз(а)


В четверг Генеральная Ассамблея ООН обратило свое внимание на искусственный интеллект, взвесив резолюцию, в которой излагаются плюсы и минусы потенциально преобразующей технологии, а также содержится призыв к установлению международных стандартов.

В тексте, соавторами которого выступили десятки стран, подчеркивается необходимость руководящих принципов «по продвижению безопасных, надежных и надежных систем искусственного интеллекта», исключая при этом военный ИИ из его сферы действия.

В целом, резолюция больше фокусируется на положительном потенциале технологии и призывает к особой заботе «о преодолении искусственного интеллекта и других цифровых разрывов между странами и внутри них».

Проект резолюции, который является первым по этому вопросу, был предложен Соединенными Штатами и будет представлен на утверждение Ассамблее в четверг.

Он также стремится «содействовать, а не препятствовать цифровой трансформации и справедливому доступу» к ИИ для достижения Целей ООН в области устойчивого развития, которые направлены на обеспечение лучшего будущего для человечества к 2030 году.

«Поскольку технологии искусственного интеллекта быстро развиваются, существует острая необходимость и уникальные возможности для государств-членов встретить этот критический момент с помощью коллективных действий », — заявила посол США в ООН Линда Томас-Гринфилд, зачитывая совместное заявление десятков стран-спонсоров. .

По словам Ричарда Гоуэна, аналитика Международной кризисной группы, «акцент на развитии является преднамеренной попыткой США завоевать расположение бедных стран».

«Легче говорить о том, как ИИ может помочь развивающимся странам прогрессировать, чем в первую очередь решать вопросы безопасности и безопасности», — сказал он.

«Алгоритмы, в которых доминируют мужчины»

В проекте текста подчеркиваются угрозы, связанные с технологией, когда она используется не по назначению с намерением причинить вред, а также признается, что без гарантий ИИ рискует подорвать права человека , усилить предрассудки и поставить под угрозу защиту личных данных.

Поэтому он просит государства-члены и заинтересованные стороны «воздерживаться или прекратить использование систем искусственного интеллекта, которые невозможно использовать в соответствии с международным законодательством в области прав человека или которые создают неоправданный риск для осуществления прав человека».

Предупреждения против этой технологии становятся все более распространенными, особенно когда речь идет об инструментах генеративного искусственного интеллекта и рисках, которые они представляют для демократии и общества, особенно через фальшивые изображения и речи, распространяемые с целью вмешательства в выборы.

Генеральный секретарь ООН Антониу Гутерриш сделал регулирование искусственного интеллекта своим приоритетом, призвав к созданию структуры ООН по образцу других организаций ООН, таких как Международное агентство по атомной энергии (МАГАТЭ).

Он регулярно подчеркивал возможность дезинформации и на прошлой неделе предупредил о предвзятости в технологиях, разработанных в основном мужчинами, что может привести к созданию алгоритмов, игнорирующих права и потребности женщин.

«Алгоритмы, в которых доминируют мужчины, могут буквально запрограммировать неравенство в деятельности от городского планирования до кредитных рейтингов и медицинской визуализации на долгие годы», — сказал он.

Гован из Международной кризисной группы заявил, что он «не думает, что США хотят, чтобы Гутерриш вел этот разговор, потому что он настолько деликатный», и поэтому «вмешался, чтобы сформировать дискуссию».

Между различными государствами-членами ООН, Соединенными Штатами, Китаем и Южной Кореей, идет гонка за то, чтобы оказаться в авангарде решения этой проблемы.

В октябре Белый дом обнародовал правила, призванные гарантировать, что Соединенные Штаты будут лидировать в регулировании ИИ, а президент Джо Байден настаивал на необходимости управлять этой технологией.

ООН рассмотрит риски от ИИ



Новости партнеров