Компания масштабирует развертывание графических процессоров по всему миру, стремясь сократить задержку и вывести распределенный вывод данных на уровень, сопоставимый с моделями искусственного интеллекта крупных облачных провайдеров.
Компания Akamai Technologies заявила о планах задействовать тысячи графических процессоров Nvidia Blackwell, процессоров обработки данных и серверов для расширения своих возможностей в области искусственного интеллекта в более чем 4000 точках по всему миру.
Компания заявила, что децентрализованная инфраструктура ИИ поможет снизить задержку и улучшить общую производительность во всех ее глобальных операциях по мере роста потребностей в обработке данных. Создание единой платформы укрепит исследования и разработки в области ИИ, его тонкую настройку и возможности обработки данных, отметила компания.
Эта новость появилась после недавних усилий Akamai по расширению возможностей обработки данных с помощью ИИ и вычислительных мощностей. В октябре компания анонсировала Akamai Inference Cloud, которая обещает приблизить обработку данных с помощью ИИ к пользователям и устройствам.
«В то время как крупные облачные компании продолжают расширять границы возможностей обучения ИИ, Akamai сосредоточена на удовлетворении уникальных потребностей эпохи инференции», — заявил в своем заявлении Адам Карон, главный операционный директор и генеральный менеджер группы облачных технологий Akamai. «Распределяя оптимизированные для инференции вычислительные ресурсы по всей нашей глобальной сети, Akamai не просто увеличивает мощности. Мы обеспечиваем масштабируемость с минимальной задержкой, необходимую для переноса ИИ из лаборатории на улицы городов».
Компания Akamai заявила, что распределенная платформа может сократить задержку до 2,5 раз и сэкономить предприятиям до 86% на затратах на вывод данных ИИ по сравнению с инфраструктурой крупных облачных провайдеров. Децентрализованная структура позволит ИИ взаимодействовать с реальными системами, включая автономные системы доставки, интеллектуальные энергосети и хирургических роботов, без географических или финансовых ограничений традиционной облачной инфраструктуры.
Конкурентная среда
Главный конкурент Cloudflare использует платформу, работающую с бессерверным выводом данных в более чем 200 городах. Технология Cloudflare Workers AI обеспечивает глобальный вывод данных менее чем за 100 мс без необходимости использования выделенных кластеров GPU. Другой конкурент, Fastly, использует периферийную платформу, которая отличается программируемыми вычислениями и требует меньшего количества локальных точек доступа (или PoP) для задач CPU/GPU.
Несмотря на жесткую конкуренцию со стороны более гибких соперников, Akamai делает ставку на то, что смелое внедрение графических процессоров в сочетании с географическим масштабом ускорит разработку ИИ для периферийных устройств, предназначенного для критически важных задач.
Объявление Akamai также знаменует собой потенциальную победу для Nvidia, поскольку рынок смещается в сторону сценариев использования для инференции. Nvidia сталкивается с усилением конкуренции на рынке микросхем для инференции.
Согласно отчету MarketsandMarkets , рынок решений для искусственного интеллекта, как ожидается, вырастет почти до 255 миллиардов долларов к 2030 году, при среднегодовом темпе роста в 19,2%.
Стремительный рост ИИ выявил ограничения моделей, ориентированных на крупные централизованные центры обработки данных (например, AWS, Azure, Google Cloud), где огромные центры обработки данных превосходно справляются с обучением, но испытывают трудности с выводом данных в реальном времени с низкой задержкой. Вывод данных — запуск обученных моделей для прогнозирования — требует близости к пользователям и устройствам для обеспечения быстродействия, минимизации затрат на исходящий трафик и масштабируемости при миллиардах взаимодействий на периферии сети.
В 2026 году это объявление подчеркивает растущую тенденцию к использованию распределенных архитектур для вывода результатов. Смелый шаг Akamai по внедрению графических процессоров может ускорить внедрение ИИ, изначально предназначенного для периферийных вычислений, в критически важных сценариях работы в реальном времени. Гонка началась: компании, которые лучше всего объединят централизованное обучение с повсеместным выполнением на периферии, определят следующий этап развития инфраструктуры ИИ.




