Растущий спрос на рабочие нагрузки, связанные с искусственным интеллектом, стимулирует конкуренцию в области сетевых микросхем
21:07, 21.07.2023
Сетевые компании соревнуются в создании чипов, способных решать задачи искусственного интеллекта и машинного обучения. Например, ASIC Silicon One G200 и G202 от Cisco конкурируют с предложениями Broadcom, NVIDIA и Marvell. Спрос на технологии ИИ быстро растет: по прогнозам, мировые расходы на ИИ достигнут 154 млрд долл. в 2023 году и не менее 300 млрд долл. к 2026 году. Кроме того, к 2027 году почти каждый пятый порт Ethernet-коммутатора, приобретаемый центрами обработки данных, будет предназначен для AI/ML и ускоренных вычислений, говорится в отчете 650 Group.
Исследование того, как сетевые микросхемы Cisco увеличивают время рабочей нагрузки
ASIC-системы Silicon One G200 и G202 компании Cisco выполняют задачи ИИ и МО с использованием на 40% меньшего количества коммутаторов со скоростью 51,2 Тбит/с. Они позволяют организовать кластер ИИ/МО на 32 тыс. 400 ГПУ в двухуровневой сети с 50% меньшим количеством оптики и 33% меньшим количеством сетевых уровней. Эти чипы предлагают унифицированную маршрутизацию и коммутацию, обеспечивая конвергентную архитектуру для маршрутизации, коммутации и сетей AI/ML. Усовершенствованная балансировка нагрузки и сверхмалая задержка делают их хорошо подходящими для обработки рабочих нагрузок AI/ML. Усовершенствованные возможности Ethernet еще больше повышают производительность, сокращая время выполнения заданий в 1,57 раза. По словам Cisco, в G200 и G202 также реализованы функции балансировки нагрузки, улучшенная изоляция от сбоев и полностью разделяемый буфер для поддержки оптической производительности рабочих нагрузок AI/ML.
Чипмейкеры решают проблемы искусственного интеллекта
По словам Чопры, производители сетевых решений выпускают сетевые чипы с увеличенной пропускной способностью и радиксом, что позволяет им решать задачи ИИ за счет подключения к большему числу устройств. Кроме того, они обеспечивают бесперебойную связь между графическими процессорами, устраняя "узкие места" и повышая производительность рабочих нагрузок AI/ML.