Рабочие нагрузки ИИ стимулируют конкуренцию в области сетевых чипов

Прочитано: 124 раз(а)


Cisco анонсировала сетевые чипы Silicon One G200 и G202, которые поддерживают рабочие нагрузки AI ML. Как Broadcom, NVIDIA и другие идут в ногу со временем?

Сетевые поставщики конкурируют на жестком рынке за производство сетевых чипов, способных справляться с рабочими нагрузками искусственного интеллекта (ИИ) и машинного обучения (МО). В конце прошлого месяца Cisco анонсировала свои ASIC Silicon One G200 и G202, противопоставив их предложениям от Broadcom, NVIDIA и Marvell.

Недавний прогноз IDC показывает, как компании планируют больше тратить на ИИ. Исследовательская фирма прогнозирует, что глобальные расходы на ИИ вырастут до 154 миллиардов долларов в 2023 году и не менее 300 миллиардов долларов к 2026 году. вычислений, согласно отчету исследовательской фирмы 650 Group.

Как сетевые чипы Cisco сокращают время рабочей нагрузки

Cisco заявляет, что ASIC Silicon One G200 и G202 выполняют задачи искусственного интеллекта и машинного обучения, используя на 40% меньше коммутаторов со скоростью 51,2 Тбит/с. По данным компании, они позволяют клиентам построить кластер AI/ML с 32 тыс. графических процессоров 400G в двухуровневой сети с на 50 % меньшим количеством оптических и на 33 % сетевых слоев. G200 и G202 — это четвертое поколение чипов Silicon One компании , предназначенных для обеспечения унифицированной маршрутизации и коммутации.

«Cisco предлагает конвергентную архитектуру, которую можно использовать в сетях маршрутизации, коммутации и AI/ML, — сказал сотрудник Cisco Ракеш Чопра в интервью Network Computing .

По словам Чопры , сверхнизкая задержка, высокая производительность и улучшенная балансировка нагрузки позволяют сетевым чипам справляться с рабочими нагрузками AI/ML . Кроме того, расширенные возможности на основе Ethernet также делают возможными эти рабочие нагрузки.

«Полностью запланированный и расширенный Ethernet — это способ повысить производительность сети на основе Ethernet и значительно сократить время выполнения задания», — сказал Чопра. «Благодаря усовершенствованному Ethernet клиенты могут сократить время выполнения своих задач в 1,57 раза, благодаря чему их задачи AI/ML будут выполняться быстрее и с меньшими затратами энергии».

Cisco заявляет, что G200 и G202 также обеспечивают балансировку нагрузки, улучшенную изоляцию сбоев и полностью общий буфер, что позволяет сети поддерживать оптическую производительность для рабочих нагрузок AI/ML.

Производители чипов и ИИ

По словам Чопры, сетевые поставщики внедряют сетевые чипы с более высокой пропускной способностью и основанием, которое представляет собой количество устройств, к которым они могут подключаться для выполнения задач ИИ. По его словам, они также позволяют графическим процессорам обмениваться данными без помех, устраняя узкие места для рабочих нагрузок AI/ML.

Рабочие нагрузки ИИ стимулируют конкуренцию в области сетевых чипов



Новости партнеров