Сопроцессор NVIDIA H100 | Forsite


Сопроцессор NVIDIA H100

Уникальная производительность, масштабируемость и безопасность для любых задач с GPU NVIDIA H100 с тензорными ядрами. С помощью коммутационной системы NVIDIA® NVLink® можно подключить до 256 H100 для ускорения экзафлопсных нагрузок, а также специальный механизм Transformer Engine для языковых моделей с триллионами параметров. Совокупность технологических инноваций H100 позволяет ускорить большие языковые модели в 30 раз по сравнению с предыдущим поколением, обеспечивая лучший в отрасли разговорный ИИ.


Производитель NVIDIA
Артикул H100
Назначение Server GPU
Память 80 ГБ
Производительность FP64 26 Терафлопс / FP64 Tensor Core 51 Терафлопс / FP32 51 Терафлопс / TF32 756 Терафлопс / BFLOAT 1513 Терафлопса / FP16 1513 Терафлопса / INT8 3026 TOPS
Скорость работы модуля памяти 2 ТБ/с
Система охлаждения Пассивное охлаждение
Гарантия 1 год гарантии

Графический процессор NVIDIA H100 с тензорными ядрами обеспечивает беспрецедентную производительность, масштабируемость и безопасность для любой рабочей нагрузки. С помощью системы коммутации NVIDIA® NVLink® можно подключить до 256 графических процессоров H100 для ускорения сверхвысоких рабочих нагрузок, а специальный модуль Transformer Engine поддерживает языковые модели с триллионом параметров. H100 использует революционные инновации в архитектуре NVIDIA Hopper™ для предоставления передового в отрасли диалогового ИИ, ускоряющего работу с большими языковыми моделями в 30 раз по сравнению с предыдущим поколением.

Ускоренный анализ данных

Аналитика данных часто занимает большую часть времени при разработке приложений на основе ИИ. Поскольку большие наборы данных разбросаны по нескольким серверам, масштабируемые решения с серверами на базе CPU не справляются с задачами из-за отсутствия необходимой производительности вычислений.

Ускоренные серверы с H100 обеспечивают вычислительную мощность, а также пропускную способность памяти 3 ТБ/с на GPU и масштабируемость с помощью NVLink и NVSwitch, что позволяет выполнять аналитику данных с высокой производительностью и масштабированием для задач с большими наборами данных. В сочетании с NVIDIA Quantum-2 InfiniBand, ПО Magnum IO, Spark 3.0 с ускорением на основе GPU и NVIDIA RAPIDS™ платформа NVIDIA для дата-центров позволяет ускорить эти ресурсоемкие задачи, обеспечивая непревзойденную производительность и энергоэффективность.

Готовность к развертыванию на предприятии

Технология Multi-Instance GPU (MIG) второго поколения в H100 позволяет максимально использовать каждый графический процессор, безопасно разделив его на семь отдельных инстансов. Благодаря поддержке конфиденциальных вычислений H100 обеспечивает безопасное сквозное многопользовательское использование, что идеально подходит для сред поставщиков облачных услуг (CSP).

H100 с MIG позволяет руководителям инфраструктур стандартизировать свою инфраструктуру с ускорением на основе GPU и обеспечить гибкое распределение ресурсов GPU с большей степенью детализации, чтобы безопасно предоставить разработчикам необходимый объем ускоренных вычислений и оптимальное использование всех ресурсов GPU.

Встроенные конфиденциальные вычисления

Современные решения для конфиденциальных вычислений основаны на CPU, которые слишком ограничены для ресурсоемких задач, таких как ИИ и высокопроизводительные вычисления. NVIDIA Confidential Computing – это встроенная функция безопасности архитектуры NVIDIA Hopper™, которая делает H100 первым в мире ускорителем с возможностями конфиденциальных вычислений. Пользователи могут защищать конфиденциальность и целостность своих данных и используемых приложений с доступом к беспрецедентному ускорению на основе GPU H100. Это создает аппаратную доверенную среду выполнения (TEE), которая защищает и изолирует всю нагрузку, выполняемую на одном графическом процессоре H100, нескольких GPU H100 в узле или отдельных инстансах MIG. Приложения с ускорением на основе GPU могут работать без изменений в TEE, и их не нужно разбивать на разделы. Пользователи могут сочетать мощь ПО NVIDIA для ИИ и HPC с безопасностью аппаратного корня доверия, поддерживаемого в NVIDIA Confidential Computing.

Непревзойденная производительность для крупномасштабных задач ИИ и высокопроизводительных вычислений

GPU с тензорными ядрами Hopper ляжет в основу архитектуры NVIDIA Grace Hopper CPU+GPU, специально созданной для ускоренных вычислений терабайтного масштаба и обеспечивающей 10-кратный рост производительности при работе с крупными моделями ИИ и высокопроизводительных вычислений. Процессор NVIDIA Grace использует гибкость Arm® для создания архитектуры процессора и сервера с нуля для ускоренных вычислений. Графический процессор Hopper подключен к процессору Grace по ультраскоростному межкристальному интерфейсу NVIDIA, который обеспечивает пропускную способность 900 ГБ/с (в 7 раз быстрее по сравнению с PCIe Gen5). Этот инновационный дизайн обеспечит увеличение совокупной пропускной способности системы до 30 раз по сравнению с самыми быстродействующими из современных серверов и до 10 раз более высокую производительность для приложений, обрабатывающих терабайты данных.