Специалисты по обработке и анализу данных как в промышленности, так и в научных кругах используют GPU в сфере машинного обучения, чтобы добиться значительных усовершенствований в широком спектре приложений, включая приложения для классификации изображений, анализа видеоданных, распознавания речи и обработки текстов на естественном языке. Глубокое обучение, то есть использование сложных, многоуровневых нейронных сетей для создания систем, которые могут выявлять признаки из большого объема немаркированных данных, - именно та область, в которой ведутся активные исследования и инвестиционная деятельность.

WIDE_DL12.png

Хотя машинное обучение существует уже десятки лет, две относительно новые тенденции привели к его широкомасштабному использованию: доступность большого объема данных, а также производительность и эффективность параллельной обработки данных, которая возможна благодаря вычислениям на GPU. GPU используются для обучения этих глубоких нейронных сетей с помощью намного более крупных обучающих последовательностей в более сжатые сроки, с использованием меньшей инфраструктуры ЦОД. GPU также используются, чтобы воспроизводить эти учебные модели машинного обучения для выполнения задач классификации и прогнозирования на облаке. При этом графические процессоры позволяют работать с данными большего объема и с более высокой производительностью, потребляя меньше энергии и на базе меньшей инфраструктуры.


РЕКОМЕНДОВАННЫЕ КОНФИГУРАЦИИ СИСТЕМЫ


Суперкомпьютер FORSITE DIGITS

cd6ac97a201651d947a4985fc0cb4006.png

Суперкомпьютер для работы в DIGITS – Deep Learning GPU Training System.

Конфигурация доступна с процессорами Intel Core i7 Extreme и XeonE5 Broadwell. Оперативная память стандарта DDR4 объёмом до 128 ГБ. Теоретическая производительность суперкомпьютера в вычислениях с одинарной точностью составляет 36 ТФлопс, при использовании 4-х ускорителей NVIDIA GTX1080 (2560 CUDACORES/ 8 GBGDDR5X). Поставляется с пакетом специализированных программ и фреймворков для разработки нейронных сетей: Caffe, Torch, Theano, BIDMach, cuDNN и CUDA

Суперкомпьютер HPC-1029 AI SXM

d239bbfa22f573ef90f443a4a62c3be7.PNG

Суперкомпьютер для работы в DIGITS, NVIDIA GPU Cloud (NGC), а так же в HPC приложениях.

Конфигурация доступна с процессорами Xeon Scalable. Оперативная память стандарта DDR4 объёмом до 1536 ГБ. Теоретическая производительность суперкомпьютера в вычислениях с одинарной точностью составляет 56 ТФлопс, при использовании 4-х ускорителей NVIDIA TESLA V100 NVLink (5120 CUDA CORES/ 16 GB HBM2). Поставляется с пакетом специализированных программ и фреймворков для разработки нейронных сетей: Caffe, Torch, Theano, BIDMach, cuDNN и CUDA

Суперкомпьютер NVIDIA DGX-1

50f45c1e7a24146d365cbc22e04f3454.png

Суперкомпьютер для работы в Deep Learning Stack на платформе NVIDIA GPU Cloud.

NVIDIA DGX раскрывает весь потенциал самых современных ускорителейt NVIDIA, например, NVIDIA® Tesla® V100, и предлагает такие инновационные технологии, как NVIDIA NVLink™ и архитектура графических ядер Tensor DGX обеспечивает 3-х кратное ускорение тренировки алгоритмов глубокого обучения по сравнению с другими система на базе GPU. Это возможно благодаря использованию программного обеспечения Deep Learning Stack на платформе NVIDIA GPU Cloud.

Суперкомпьютер HPC-8000T

tyan10gpu.png


Суперкомпьютер для работы в DIGITS, NVIDIA GPU Cloud (NGC), а так же в HPC приложениях.

Конфигурация доступна с процессорами Intel Xeon Scalable. Оперативная память стандарта DDR4 объёмом до 3072 ГБ. Теоретическая производительность суперкомпьютера в вычислениях с одинарной точностью составляет 140 ТФлопс, при использовании 10-ти ускорителей NVIDIA TESLA V100 (5120 CUDA CORES /640 TENSOR CORES / 16 GB HBM2). Поставляется с пакетом специализированных программ и фреймворков для разработки нейронных сетей: Caffe, Torch, Theano, BIDMach, cuDNN и CUDA