Сопроцессоры NVIDIA TESLA. Проектные цены, возможность предварительного тестирования.

Сопроцессор NVIDIA V100

NVIDIA® V100 с тензорными ядрами — это самый технически продвинутый в мире GPU для дата-центров, предназначенный для ускорения ИИ, высокопроизводительных вычислений (HPC), обработки данных и работы с графикой. Созданный на базе архитектуры NVIDIA Volta он доступен в конфигурациях 16 и 32 Гб и обеспечивает производительность на уровне 32 процессоров. Специалисты по data science, ученые и разработчики теперь могут тратить меньше времени на оптимизацию ресурсов памяти и сконцентрироваться на достижениях в области ИИ.


Производитель NVIDIA
Артикул V100 c NVLink | V100 c PCIe | V100S c PCIe
Назначение Server GPU
Память 16/32 ГБ
Производительность ОПЕРАЦИИ С ДВОЙНОЙ ТОЧНОСТЬЮ:7,8 | 7 | 8,2 TFLOPS / ОПЕРАЦИИ С ОДИНАРНОЙ ТОЧНОСТЬЮ: 15,7 | 14 | 16,4 терафлопс / ЗАДАЧИ ГЛУБОКОГО ОБУЧЕНИЯ: 125 | 112 | 130 терафлопс
Скорость работы модуля памяти 2 ТБ/с
Система охлаждения Пассивное охлаждение
Макс. потребление энергии 300 | 250 Вт
Гарантия 1 год гарантии

NVIDIA® V100 с тензорными ядрами — это самый технически продвинутый в мире GPU для дата-центров, предназначенный для ускорения ИИ, высокопроизводительных вычислений (HPC), обработки данных и работы с графикой. Созданный на базе архитектуры NVIDIA Volta он доступен в конфигурациях 16 и 32 Гб и обеспечивает производительность на уровне 32 процессоров. Специалисты по data science, ученые и разработчики теперь могут тратить меньше времени на оптимизацию ресурсов памяти и сконцентрироваться на достижениях в области ИИ.

Тренировка моделей ИИ

Специалисты по data science берутся за все более сложные задачи: от распознавания речи и разработки виртуальных ассистентов до обучения беспилотных автомобилей вождению. Решение таких задач требует обучения все более сложных моделей глубокого обучения в сжатые сроки.

Оснащенный 640 тензорными ядрами ускоритель V100 — это первый в мире GPU, преодолевший ограничение 100 терафлопс в задачах глубокого обучения. Технология NVIDIA NVLink™ нового поколения объединяет несколько GPU V100 и обеспечивает пропускную способность до 300 Гб/с для создания самых мощных в мире вычислительных серверов. Теперь тренировку моделей ИИ, которая занимала недели на системах предыдущего поколения, можно завершить за несколько дней.

Инференс ИИ

Чтобы открыть доступ к актуальной информации, сервисам и продуктам, компании начали использовать искусственный интеллект. Однако отвечать требованиям пользователей — сложная задача. К примеру, компания с крупнейшей гипермасштабируемой инфраструктурой подсчитала, что необходимо удвоить мощность дата-центра, если каждый пользователь будет использовать сервис по распознаванию речи всего три минуты в день.

Графический ускоритель V100 призван обеспечить максимальную производительность существующих гипермасштабируемых серверов. Так как в основе V100 лежит ИИ, производительность ускорителя в задачах инференса в 47 раз выше, чем у процессора. Подобный скачок производительности и энергоэффективности позволяет расширить масштабы применения сервисов с ИИ.

Высокопроизводительные вычисления (HPC)

HPC — это фундамент современной науки. Ученые постоянно используют требовательные вычислительные системы для моделирования и предсказания событий в мире: от прогнозирования погоды до создания новых лекарств. ИИ расширяет возможности HPC, позволяя ученым анализировать большие объемы данных и получать полезную информацию, даже если моделирование не может создать полную картину реального мира.

Графический ускоритель V100 призван обеспечить комбинацию задач ИИ и HPC. Он представляет собой платформу для систем HPC, которая обеспечивает отличную производительность как в вычислениях для научного моделирования, так и в обработке данных для извлечения ценной информации. Благодаря объединению ядер NVIDIA CUDA®и тензорных ядер в единой архитектуре один сервер на базе GPU V100 способен заменить сотни традиционных серверов на основе процессора в нагрузках ИИ и HPC. Теперь любой разработчик или ученый может позволить себе суперкомпьютер с ИИ для решения самых сложных задач.