Новый процессор знаменует собой сдвиг в проектировании центров обработки данных для ИИ, поскольку оркестрация, вывод и выполнение в реальном времени перемещаются в центр рабочих нагрузок следующего поколения.
Компания Nvidia расширяет свое присутствие на рынке центров обработки данных с поддержкой ИИ, выпустив процессор Vera, предназначенный для обработки уровня оркестрации новых агентных систем искусственного интеллекта.
Представленный на GTC 2026 чип сигнализирует о сдвиге в подходах к построению инфраструктуры искусственного интеллекта – центральный процессор перестает быть вспомогательным компонентом и становится центральной плоскостью управления рабочими нагрузками ИИ.
«Центральный процессор больше не просто поддерживает модель; он управляет ею», — заявил генеральный директор Nvidia Дженсен Хуанг во время выступления на конференции GTC.
От обучения к оркестровке
По мере перехода ИИ от обучения к внедрению в производство, узким местом становятся не только графические процессоры, но и системы оркестровки, координации вывода и выполнения в реальном времени.
Системы агентного искусственного интеллекта , созданные для выполнения задач, вызова инструментов и управления многоэтапными рабочими процессами, требуют значительных ресурсов ЦП для координации тысяч параллельных процессов и поддержания среды выполнения.
«Я думаю, что Vera заслуживает внимания», — сказал Мэтт Кимбалл, вице-президент и аналитик Moor Insights & Strategy, в интервью Data Center Knowledge . «Даже несмотря на то, что производительность ЦП заглушается производительностью ГП, она никуда не денется, а Vera в некотором смысле революционна с архитектурной точки зрения».
«Центральный процессор — это плоскость управления и координации для кластеров графических процессоров, — добавил он. — И по мере масштабирования агентного ИИ эта роль становится все более востребованной, а не менее».
Создано для параллельной обработки данных, изначально предназначенной для ИИ
Vera основана на архитектуре Nvidia Grace, но предлагает дизайн, оптимизированный для высокой параллельности и длительного использования.
Характеристики чипа:
88 специализированных ядер «Olympus» на базе архитектуры Arm, каждое ядро способно выполнять две задачи с использованием технологии Nvidia Spatial Multithreading.
Память LPDDR5X обеспечивает пропускную способность до 1,2 ТБ/с.
Масштабируемая сеть когерентности второго поколения для обеспечения высокой производительности в многопользовательских средах.
Но архитектурные изменения носят более глубокий характер.
«Пространственная многопоточность, нейронное предсказание ветвлений, оптимизированный для PyTorch буфер инструкций, механизм предварительной выборки данных в графовых базах данных — это не просто небольшие улучшения, — сказал Кимбалл. — Они меняют профиль производительности таким образом, каким увеличение количества ядер и памяти само по себе не влияет».
«Традиционная архитектура x86 не была для этого предназначена. А вот Vera была», — добавил он. «По сути, это процессор для искусственного интеллекта, созданный для задач агентного обучения и обучения с подкреплением».
Интегрирована с графическими процессорами Rubin
Vera — это не самостоятельный продукт; он тесно интегрирован в стратегию платформы следующего поколения Nvidia. В рамках платформы Vera Rubin NVL72 процессоры Vera объединены с графическими процессорами через NVLink-C2C, обеспечивая когерентную пропускную способность до 1,8 ТБ/с — примерно в 7 раз больше, чем у систем на базе PCIe, заявила компания. Такая архитектура обеспечивает более быструю передачу данных между вычислительными уровнями, что критически важно для рабочих нагрузок, которые динамически переключаются между управлением со стороны ЦП и выполнением на графическом процессоре.
Vera также позиционируется как главный процессор для систем HGX Rubin NVL8, фактически выступая в качестве уровня управления для кластеров искусственного интеллекта с высокой плотностью графических процессоров.
Масштабирование фабрики ИИ
Nvidia также расширяет свою концепцию «фабрики ИИ» с помощью стоечных систем Vera. Эти системы поддерживают:
До 256 процессоров с жидкостным охлаждением
Более 22 000 одновременно работающих процессорных сред
Интегрированная сетевая обработка и передача данных с помощью DPU BlueField и сетевых адаптеров ConnectX SuperNIC.
Данная разработка отражает изменение структуры рабочей нагрузки: от пакетной обработки к непрерывному выполнению, а также от отдельных моделей к распределенным многоагентным системам.
Широкая поддержка экосистемы
Компания Nvidia упомянула широкий круг партнеров и первых пользователей Vera, включая поставщиков облачных услуг и партнеров по инфраструктуре ИИ, таких как Platforms, Alibaba, ByteDance, Oracle Cloud Infrastructure, CoreWeave, Nebius Group и Lambda, а также производителей оборудования, включая Dell Technologies, Hewlett Packard Enterprise, Lenovo и Supermicro.
Кимбалл отметил важность проверки гипермасштабируемых систем. «Внедрение — это не пилотный проект, — сказал он. — Это показывает, что они хотят обеспечить постоянную загрузку миллионов графических процессоров».
Он также видит перспективу расширения присутствия в корпоративной среде. «Vera предоставляет Nvidia полноценную вычислительную платформу, а не просто графический процессор», — сказал он. «Это крайне важно, поскольку агентный ИИ проникает в корпоративную среду».
Власть и следующее ограничение
Кимбалл подчеркнул, что энергоэффективность является определяющим фактором.
«Все это достигается при меньшем энергопотреблении, чем на архитектуре x86», — сказал он. «В условиях ограниченного энергопотребления в центрах обработки данных это не просто преимущество, это фундаментальный сдвиг».
Переосмысление роли ЦП в эволюции ИИ
Vera представляет собой структурный сдвиг в инфраструктуре ИИ, а не просто очередной запуск процессора. Хотя графические процессоры и масштаб моделей определяли последние несколько лет, переход к внедрению ИИ в производство выявляет новое узкое место: системную оркестровку.
По мере масштабирования рабочих нагрузок агентного ИИ задача состоит уже не только в выполнении моделей, но и в координации тысяч процессов в режиме реального времени. Этот сдвиг вновь делает центральный компонент производительности ИИ критически важным.
Стратегия Nvidia в отношении Vera отражает более широкое стремление расширить свое доминирование за пределы ускорителей и проникнуть в плоскость управления системами искусственного интеллекта. Благодаря тесной интеграции процессоров и графических процессоров, компания позиционирует себя как поставщик полного спектра услуг, контролирующий как выполнение, так и оркестрацию.
Это дает немедленные преимущества в средах, ориентированных на Nvidia, где интеграция может обеспечить повышение производительности и эффективности. Это также усиливает конкурентное давление на традиционных поставщиков процессоров, таких как Intel и AMD, которым теперь необходимо адаптировать архитектуры, созданные для вычислений общего назначения, к все более ориентированным на искусственный интеллект задачам.
Если масштабируемость агентного ИИ будет соответствовать ожиданиям, центр обработки данных превратится в скоординированную систему процессов реального времени. В этой модели центральным элементом станет центральный процессор, а конкурентное преимущество сместится от отдельных чипов к управлению всей системой.




