NVIDIA DGX A100

Универсальная система для
инфраструктуры ИИ

ПЕРВАЯ В МИРЕ СИСТЕМА С ИИ НА БАЗЕ NVIDIA A100

NVIDIA DGX™ A100 — это первая в мире универсальная система для всех нагрузок ИИ с производительностью 5 петафлопс, которая обеспечивает высочайшую плотность вычислений и гибкость. NVIDIA DGX A100 оснащена самым мощным в мире графическим ускорителем NVIDIA A100 с тензорными ядрами, который позволяет компаниям объединить анализ данных, тренировку и инференс в унифицированной и простой в развертывании инфраструктуре ИИ с поддержкой экспертов NVIDIA в области ИИ.


КЛЮЧЕВОЙ КОМПОНЕНТ
ДАТА-ЦЕНТРА С ИИ

Универсальная система для любых задач ИИ

С помощью DGX Station A100 организации могут предоставить нескольким пользователям централизованный ресурс ИИ для всех рабочих задач: обучение, инференс, анализ данных. Начав решать эти задачи на DGX Station A100, впоследствии их можно легко перенести в инфраструктуру на базе NVIDIA DGX™ и других систем, сертифицированными NVIDIA. А с помощью Multi-Instance GPU (MIG) можно выделить до 28 отдельных GPU-устройств для отдельных пользователей и задач.

Эксперты по DGX: интегрированный доступ
к экспертным знаниям в
области ИИ

Эксперты NVIDIA по DGX — это более 16 000 специалистов в области ИИ, которые за десять лет накопили богатый опыт и готовы помочь вам максимизировать окупаемость вложений в систему DGX.

Быстрые результаты

NVIDIA DGX A100 — это первая в мире система на базе GPU NVIDIA A100 с тензорными ядрами. Интеграция восьми GPU A100 с объемом памяти до 640 ГБ ускорителей A100 и обеспечивает непревзойденное масштабируемое ускорение, будучи полностью оптимизированной для ПО NVIDIA CUDA-X™ и комплексного стека решений NVIDIA для дата-центра.

Исключительная
масштабируемость
дата-центра

NVIDIA DGX A100 оснащена коммутатором Mellanox с максимальной пропускной способностью 500 Гбит/с. Это одно из многих преимуществ, которые делают DGX A100 ключевым компонентом крупных кластеров ИИ, таких как референсная архитектура для масштабируемых инфраструктур ИИ NVIDIA DGX SuperPOD™.

Простое и быстрое начало работы с ИИ

Набор инструментов NVIDIA AI Starter Kit обеспечивает все необходимое для вашей команды: от передовой платформы ИИ, оптимизированного ПО и инструментов до помощи экспертов, чтобы вы могли быстро начать работу над проектами ИИ. Не теряйте время и деньги на создание платформы ИИ. Настройте систему за один день, создайте проект за неделю и начните разработку моделей гораздо быстрее.

Быстрое решение сложных задач обработки данных

Преимущества

  • Откажитесь от долгой настройки и тестирования с использованием оптимизированного ПО для ИИ.
  • Получайте более качественные модели быстрее с максимальной производительностью, которая обеспечивает быстрые итерации.
  • Не тратьте время на системную интеграцию и разработку ПО.

Развертывание инфраструктуры и начало работы с ИИ

Преимущества

  • Оцените простую инфраструктуру и планирование мощности с единой системой для всех задач ИИ.
  • Обеспечьте максимальную плотность вычислений и производительность с минимальными ресурсами.
  • Используйте встроенную технологию безопасности во всех слоях: от контейнера до чипа.

Ускорьте получение результатов и окупаемость инвестиций в ИИ

Преимущества

  • Повысьте эффективность работы специалистов по data science и избавьтесь от действий, не дающих экономического эффекта
  • Ускорьте весь цикл разработки, от идеи до конечной версии.
  • Устраните трудности с помощью экспертов по DGX.

РЕВОЛЮЦИОННАЯ ПРОИЗВОДИТЕЛЬНОСТЬ

Высокоэффективное обучение алгоритмов повышает продуктивность работы. А это значит, что вы можете быстрее принимать решения и выводить продукты на рынок.


Тренировка

Тренировка DLRM
Повышение производительности
до 3 раз для тренировки ИИ
на самых больших моделях

DLRM на фреймворке HugeCTR, точность = FP16 | 1x DGX A100 640GB размер пакета = 48 | 2x DGX A100 320GB размер пакета = 32 | 1x DGX-2 (16x V100 32GB) размер пакета = 32. Ускорение стандартизовано для количества GPU.

Инференс

Инференс RNN-T: один поток
Повышение производительности
до 1,25 раз для инференса ИИ

MLPerf 0.7 RNN-T измерено с (1/7) инстансами MIG. Фреймворк: TensorRT 7.2, набор данных = LibriSpeech, точность = FP16.

Анализ данных
Бенчмарк анализа больших данных
Повышение производительности до
83 раз по сравнению с процессором и в 2
раза по сравнению с DGX A100 320GB

Бенчмарк анализа больших данных | 30 запросов analytical retail, ETL, машинное обучение, обработка естественного языка на наборе данных 10 TБ | Процессор: 19x Intel Xeon Gold 6252 с тактовой частотой 2,10 ГГц, Hadoop | DGX-1 (8X V100 32GB каждый), RAPIDS/Dask | 12 DGX A100 320GB и 6 DGX A100 640GB, RAPIDS/Dask/BlazingSQL​ Ускорение стандартизовано для количества GPU.

Передовые компоненты системы DGX A100

  1. 8 GPU NVIDIA A100 С ОБЩИМ ОБЪЕМОМ ПАМЯТИ 640 ГБ 12 соединений NVLink на GPU пропускная способность между GPU 600 Гбит/с
  2. 6 КОММУТАТОРОВ NVSWITCH ШЕСТОГО ПОКОЛЕНИЯ Двунаправленный интерфейс 4,8 Тбит/с В 2 раза быстрее предыдущего поколения
  3. 10 адаптеров Mellanox ConnectX-6 VPI HDR/200 GB Ethernet Двунаправленный интерфейс 500 Гбит/с
  4. Два 64-ядерных процессора AMD И 2 ТБ системной памяти В 2,7 раза больше ядер для самых ресурсоемких задач ИИ
  5. SSD GEN4 NVME объёмом 30 ТБ Пиковая пропускная способность 50 Гбит/с до 2 раз быстрее, чем SSD Gen3 NVME

Ознакомьтесь с подробным обзором новой
системы NVIDIA DGX A100.

Технологии NVIDIA DGX A100

GPU NVIDIA A100 с тензорными ядрами

GPU NVIDIA A100 с тензорными ядрами обеспечивает непревзойденное ускорение для ИИ, анализа данных и высокопроизводительных вычислений (HPC) для решения самых сложных вычислительных задач. Благодаря тензорным ядрам третьего поколения, обеспечивающим значительный прирост производительности, A100 можно масштабировать до тысячи GPU, а с помощью технологии Multi-instance GPU разделить на семь инстансов для ускорения задач любого масштаба.

Multi-Instance GPU (MIG)

Технология MIG позволяет разделить 8 ускорителей в DGX A100 на 56 полностью изолированных инстансов, оснащенных памятью с высокой пропускной способностью, кэшем и вычислительными ядрами. Теперь администраторы могут предложить оптимальный размер GPU с гарантированным качеством обслуживания (QoS) для различных задач.

NVLink и NVSwitch нового поколения

Третье поколение NVIDIA® NVLink® в DGX A100 удваивает скорость обмена данными между GPU до 600 Гбит/с, что почти в 10 раз превосходит показатели PCIe Gen 4. DGX A100 также оснащена коммутатором NVIDIA NVSwitch™ нового поколения, который в 2 раза быстрее предыдущих решений.

Mellanox ConnectX-6 VPI HDR InfiniBand

DGX A100 включает в себя новые адаптеры Mellanox ConnectX-6 VPI HDR InfiniBand/Ethernet с пропускной способностью 200 Гбит/с, которые обеспечивают высокоскоростное соединение для задач ИИ.

Оптимизированный стек ПО

DGX A100 содержит протестированный и оптимизированный стек ПО DGX, включая базовую операционную систему для ИИ, все необходимое системное ПО, а также GPU-ускоренные приложения, предварительно натренированные модели и другие ресурсы из NGC™.

Встроенная технология безопасности

DGX A100 обеспечивает самый надежный уровень безопасности для развертываний ИИ благодаря многоуровневому подходу, который защищает все основные программно-аппаратные компоненты, включая самошифрующиеся диски, контейнеры ПО, управление и мониторинг безопасности и другие решения.

NVIDIA DGX SuperPOD

Передовая инфраструктура ИИ

Запросить коммерческое предложение

Подробнее

Предварительное тестирование DGX A-100

Подробнее