Kioxia создаёт SSD нового поколения для ИИ: до 10 миллионов IOPS и минимальные задержки

watch 8s
views 2

18:05, 10.06.2025

Содержание статьи
arrow

  • Архитектура под максимальную загрузку GPU
  • Малые блоки и одноранговая передача: под задачи генеративного ИИ
  • Когда ждать новинку?

Компания Kioxia анонсировала разработку нового твердотельного накопителя на базе XL-Flash, способного достигать свыше 10 млн операций ввода-вывода в секунду (IOPS) при работе с малыми блоками данных. Это примерно втрое быстрее, чем у лучших SSD на рынке в настоящее время.

Анонс прозвучал на корпоративной стратегической встрече, где особое внимание было уделено устранению одного из ключевых ограничений производительности серверов ИИ — медленной передаче данных между хранилищем и GPU через центральный процессор.

Архитектура под максимальную загрузку GPU

Новый SSD будет использовать одноуровневую XL-Flash (SLC), которая обеспечивает минимальное время отклика — от 3 до 5 микросекунд, в то время как стандартные 3D NAND-накопители работают с задержками в диапазоне 40–100 мкс.

Особенность архитектуры заключается в использовании специализированного контроллера, ориентированного на достижение максимальной производительности при случайном доступе. Это позволит загружать графические процессоры данными практически без простоев, что особенно важно для современных LLM и RAG-систем.

Малые блоки и одноранговая передача: под задачи генеративного ИИ

AI-SSD от Kioxia оптимизирован для работы с малыми блоками данных, вплоть до 512 байт, что идеально соответствует шаблонам доступа больших языковых моделей, где преобладают частые случайные обращения к базе параметров.

Кроме того, накопитель будет поддерживать одноранговую (peer-to-peer) передачу между GPU и SSD, без участия CPU. Это существенно снизит задержки и повысит пропускную способность в многокартных конфигурациях, особенно при масштабной обработке запросов в режиме inference.

Когда ждать новинку?

Официальный релиз Kioxia AI SSD нового поколения ожидается во второй половине 2026 года. Он ориентирован прежде всего на ЦОДы, использующие ИИ-нагрузки, и, вероятно, станет важной частью инфраструктуры для работы с LLM, мультимодальными моделями и корпоративными RAG-платформами.

Поделиться

Была ли эта статья полезной для вас?

Популярные предложения VPS

Другие статьи на эту тему

cookie

Принять файлы cookie и политику конфиденциальности?

Мы используем файлы cookie, чтобы обеспечить вам наилучший опыт работы на нашем сайте. Если вы продолжите работу без изменения настроек, мы будем считать, что вы согласны получать все файлы cookie на сайте HostZealot.