Dell, HPE и другие компании представят инновации в области искусственного интеллекта на конференции GTC 2026

Прочитано: 167 раз(а)


Производители внедряют инновации, выходящие за рамки аппаратного обеспечения, решая проблемы обработки данных и обеспечивая масштабируемое развертывание ИИ с помощью передовых решений в области оркестрации, хранения данных и инфраструктуры.

На конференции GTC 2026 главной темой обсуждения стала платформа искусственного интеллекта Vera Rubin следующего поколения от Nvidia , но более важным моментом стало то, как Dell Technologies, HPE и ряд специалистов по хранению данных добились дифференциации на уровне, превышающем уровень кремниевых компонентов, — предложив новые решения, охватывающие серверы для ИИ, хранилища данных, оркестрацию данных и управляемые стеки «фабрики ИИ», призванные помочь операторам центров обработки данных создавать свою инфраструктуру ИИ. 

Крупнейшие поставщики оборудования и облачных услуг объявили о поддержке будущей платформы Nvidia Vera Rubin и представили новые серверы и облачные экземпляры на базе графических процессоров Nvidia RTX PRO 4500 и Blackwell 6000. В то же время многие производители сосредоточили свои основные усилия на более высоких уровнях технологической инфраструктуры. 

«Мы видим, как многие партнеры пытаются продвинуться по технологической цепочке. С точки зрения конкурентной среды, все больше и больше игроков, специализирующихся исключительно на инфраструктуре, начинают заниматься управлением данными», — сказал аналитик Omdia Майк Леоне изданию Data Center Knowledge . «Большинство игроков на рынке инфраструктуры будут внедрять новые процессоры. Так будет всегда. Это оказывает большое давление на этих поставщиков, учитывая агрессивность Nvidia в отношении сроков, но это еще одна причина, по которой им необходимо обеспечить реальное конкурентное преимущество. Они не могут просто прийти и сказать: «У нас есть проверенная конструкция или сертификация». Все так говорят».

Dell укрепляет платформу обработки данных на основе искусственного интеллекта

Компания Dell объявила о усовершенствовании своей платформы Dell AI Factory, разработанной совместно с Nvidia и ориентированной на клиентов от крупных крупных компаний до крупных предприятий. Ключевым элементом является Dell Data Orchestration Engine — сервис, не требующий или требующий минимального программирования, который автоматически обнаруживает, подготавливает и управляет структурированными, неструктурированными и мультимодальными данными в больших масштабах, преобразуя их в наборы данных, готовые для использования в ИИ. Разработка этого решения стала возможной благодаря недавнему приобретению компанией Dell компании Dataloop.

«Если учесть огромный объем данных, с которыми работают наши клиенты, то система управления данными (Data Orchestration Engine) может существенно помочь оптимизировать процессы обработки и подготовки данных, а также ускорить рабочие процессы для корпоративных данных», — заявил Варун Чхабра, старший вице-президент группы инфраструктурных решений Dell, на брифинге для СМИ. 

Аналитики назвали систему оркестрации самым значимым объявлением Dell в рамках GTC. «Dell действительно создает комплексную платформу для работы с данными на основе ИИ, и это открывает для них значительно больший потенциальный рынок, чем просто продажа хранилищ или серверов», — сказал Леоне. «Это приносит большую пользу на уровне бизнеса». 

Проблема данных универсальна, добавил Мэтт Кимбалл из Moor Insights & Strategy, отметив, что NetApp, Everpure и VAST Data также решили эту проблему с помощью новых предложений. «Данные — это главное. Каждая ИТ-организация сталкивается с одними и теми же вопросами: как их использовать? Как их защитить? Как ими управлять? Как их подготовить? … Если вы не являетесь компанией, изначально работающей в облаке и изначально ориентированной на цифровые технологии, это проблема». «Именно поэтому Dell подходит к этому с этой точки зрения. Все они пытаются подойти к этому с этой стороны». 

Компания Dell также представила два продукта для хранения данных. Dell Lightning File System, которая уже доступна, представляет собой высокопроизводительную параллельную файловую систему для обучения и вывода результатов ИИ. По словам Чхабры, она обеспечивает до 2 раз большую пропускную способность, чем конкурирующие параллельные файловые системы, и до 20 раз большую производительность, чем традиционные масштабируемые решения на основе флэш-памяти.

Dell Exascale Storage — это архитектура «3 в 1», позволяющая ИТ-командам развертывать программное обеспечение для хранения файлов, объектов и параллельных файловых систем на серверах PowerEdge. Клиенты могут выделять ресурсы Dell PowerScale, Dell ObjectScale и Dell Lightning File System для ресурсоемких сред, таких как высокочастотная торговля или неооблачные решения . Платформа, разработанная для развертывания объемов данных свыше 10 петабайт, позволяет организациям адаптировать «различные параметры хранения» с течением времени без смены платформы, — сказал Чабра.

В сегменте вычислительной техники Dell расширяет свой портфель серверов для ИИ и упрощает развертывание, имея четкий план развития. Системы PowerEdge с видеокартой Nvidia RTX PRO 4500 Blackwell Server Edition уже доступны для поставки. Начиная с апреля 2026 года, Dell представит Dell AI Factory с модульной архитектурой Nvidia — масштабируемую платформу, которая интегрирует готовую к работе с ИИ инфраструктуру Dell с программным обеспечением Nvidia для ИИ, упрощая развертывание, масштабирование и управление ресурсами.

Кроме того, по словам Чабры, Enterprise Inferencing Foundation предоставляет проверенное решение с одним или двумя узлами, построенное на серверах, коммутаторах и системах хранения данных Dell, что позволяет организациям начинать с малого и расширяться по мере роста потребностей. В перспективе Dell планирует выпустить серверы PowerEdge R9822 и M9822 Vera CPU в сентябре 2026 года, а PowerEdge XE9812 — платформа Dell Vera Rubin NVL72 для более масштабного обучения и вывода данных в реальном времени — появится во второй половине 2026 года.

HPE совершенствует HPE AI Factory

Компания HPE анонсировала новые решения для инфраструктуры искусственного интеллекта, предназначенные для клиентов, от поставщиков услуг в области ИИ до крупных предприятий, на этапе перехода от пилотных проектов к серийному производству.

Для поставщиков услуг HPE запустила HPE AI Grid, которая объединяет сетевое оборудование HPE Juniper и серверы HPE ProLiant для подключения предприятий, занимающихся разработкой искусственного интеллекта, и распределенных кластеров для выполнения вычислений на региональных и периферийных площадках, — заявил Джулиус Фрэнсис, старший директор по маркетингу и стратегии продуктов HPE.

Для повышения уровня безопасности в корпоративном секторе и регулируемых отраслях HPE расширила свое готовое решение для частного облака с использованием искусственного интеллекта, добавив конфигурации с изолированной сетью, которые предотвращают доступ конфиденциальных данных к общедоступному интернету, заявил Дейл Браун, глобальный руководитель отдела продаж решений в области искусственного интеллекта в HPE.  

«Вся эта концепция развертывания частных облачных решений для искусственного интеллекта в условиях изоляции от внешнего мира — я думаю, это важно», — отметил Леоне. «Мы еще услышим об этом».

Компания HPE также заявила, что теперь Private Cloud AI может масштабироваться до 128 графических процессоров по мере роста рабочих нагрузок.

Для поставщиков услуг, государственных организаций и крупных предприятий стоечная система HPE следующего поколения Nvidia Vera Rubin NVL72 станет доступна в декабре 2026 года, а первый сервер с процессорами Nvidia Vera — вычислительный модуль HPE Cray Supercomputing GX240 — появится в 2027 году. 

Компании, занимающиеся хранением данных, усиливают свои решения на основе искусственного интеллекта. 

Производители систем хранения данных представили продукты, разработанные для того, чтобы сделать данные более доступными, управляемыми и готовыми к использованию искусственного интеллекта. 

NetApp делает хранилища данных доступными для поиска в контексте искусственного интеллекта.

Компания NetApp представила NetApp AI Data Engine (AIDE), программное обеспечение, разработанное совместно с Nvidia, которое создает интеллектуальный индекс для всей информационной инфраструктуры организации — локально, в облаке и на периферии сети. Это помогает инструментам искусственного интеллекта понимать, какие данные существуют, что они содержат и где находятся. «NetApp AIDE делает данные доступными для поиска и понимания благодаря интеллектуальным метаданным», — сказал Кимбалл.

Everpure: Подписка на хранилище данных для ИИ и автоматизированные конвейеры обработки данных

Компания Everpure, ранее известная как Pure Storage, расширила свою модель подписки на хранилище данных Evergreen//One, включив в нее платформу FlashBlade//EXA — свою самую высокопроизводительную систему хранения данных для систем искусственного интеллекта. Кимбалл назвал этот шаг важным для предприятий с ограниченным бюджетом: «Теперь они могут развертывать и использовать это высокопроизводительное хранилище данных на уровне крупнейших гипермасштабных компаний».

Компания Everpure также анонсировала бета-версию Data Stream, автоматизированной системы, которая непрерывно подает данные в кластеры графических процессоров, выполняющие задачи ИИ, без участия человека в управлении конвейером — решение, которое Кимбалл сравнил с Data Engine от VAST Data. Бета-версия, запуск которой запланирован на конец 2026 года, направлена ​​на решение давней проблемы: «Моделям ИИ для эффективной работы необходима постоянная, непрерывная подача данных, а сегодня этот процесс требует слишком много ручного управления», — сказал Кимбалл.

Компания VAST Data добавляет конвейеры с открытым исходным кодом для разработки шаблонов искусственного интеллекта Nvidia

Компания VAST Data анонсировала готовые программные конвейеры с открытым исходным кодом, которые преобразуют эталонные архитектуры Nvidia для построения систем искусственного интеллекта в работающие реализации, запускаемые непосредственно на инфраструктуре VAST. Кимбалл отметил, что подход с открытым исходным кодом снижает барьер для разработчиков при внедрении архитектуры VAST.

Кимбалл, оглянувшись назад, отметил, что поставщики решений для хранения данных сходятся к общей цели: сделать уровень хранения данных активным, интеллектуальным участником конвейеров искусственного интеллекта, а не пассивным хранилищем. «Сейчас игроков отличает скорее подход, чем конечная цель», — сказал он. «NetApp делает упор на обеспечение семантической доступности данных для поиска. Everpure лидирует в области экономики потребления и автоматизации. [VAST Data] позиционирует себя как операционную основу конвейеров искусственного интеллекта. А Dell делает акцент на корпоративном управлении и управлении жизненным циклом данных. Все это — естественное продолжение того, в чем каждый поставщик уже хорош».

Как центры обработки данных изменили представление об энергетике и электроснабжении в 2025 году



Новости партнеров