OpenAI формирует комитет по безопасности

Прочитано: 68 раз(а)


OpenAI заявляет, что создает комитет по безопасности и начала обучение новой модели искусственного интеллекта, которая заменит систему GPT-4, лежащую в основе ее чат-бота ChatGPT.

Стартап из Сан-Франциско сообщил в своем блоге во вторник, что комитет будет консультировать весь совет директоров по «критическим решениям по безопасности» для своих проектов и операций.

Комитет по безопасности появился на фоне дискуссий вокруг безопасности ИИ в компании, которая оказалась в центре внимания после того, как исследователь Ян Лейке подал в отставку и раскритиковал OpenAI за то, что она позволила безопасности «отойти на второй план перед блестящими продуктами». Соучредитель и главный научный сотрудник OpenAI Илья Суцкевер также подал в отставку, и компания распустила команду «сверхсогласования», занимающуюся рисками ИИ, которую они совместно возглавляли.

Лейке заявил во вторник, что он присоединяется к конкурирующей компании в области искусственного интеллекта Anthropic, основанной бывшими руководителями OpenAI, чтобы «продолжить там миссию суперсогласования».

OpenAI заявила, что «недавно начала подготовку своей следующей передовой модели», а ее модели ИИ лидируют в отрасли по возможностям и безопасности, хотя и не упомянул об этом противоречии. «Мы приветствуем активную дискуссию в этот важный момент», — заявили в компании.

Модели искусственного интеллекта — это системы прогнозирования, которые обучены на обширных наборах данных для генерации по запросу текста, изображений, видео и человеческого диалога. Модели Frontier — это самые мощные и передовые системы искусственного интеллекта.

В состав комитета по безопасности входят инсайдеры компании, в том числе генеральный директор OpenAI Сэм Альтман и председатель Брет Тейлор, а также четыре технических и политических эксперта OpenAI. В него также входят члены совета директоров Адам Д’Анджело, генеральный директор Quora, и Николь Селигман, бывший главный юрисконсульт Sony.

Первой задачей комитета будет оценка и дальнейшее развитие процессов и мер безопасности OpenAI, а также представление рекомендаций совету директоров в течение 90 дней. Компания заявила, что затем публично опубликует рекомендации, которые она принимает, «в соответствии с требованиями безопасности».

OpenAI формирует комитет по безопасности и начинает обучение новейшей модели искусственного интеллекта



Новости партнеров