Вычисления на GPU

v100-chart-updates-hpc-1-gpu-node-625-ud[1].png

Вычисления с GPU-ускорением предлагают беспрецедентную производительность приложений благодаря тому, что GPU обрабатывает части приложения, требующие большой вычислительной мощности, при этом остальная часть приложения выполняется на CPU. С точки зрения пользователя, приложение просто работает значительно быстрее.

Простой способ понять разницу между CPU и GPU – это сравнить то, как они выполняют задачи. CPU состоит из нескольких ядер, оптимизированных для последовательной обработки данных, оптимизированных для последовательной обработки данных, в то время как GPU состоит из тысяч более мелких и энергоэффективных ядер, созданных для обработки нескольких задач одновременно.


HPC – фундаментальная опора современной науки. Начиная от прогнозирования погоды и создания новых лекарств и заканчивая поиском источников энергии, ученые постоянно используют большие вычислительные системы для моделирования нашего мира и прогнозирования событий в нем. Искусственный интеллект расширяет возможности HPC, позволяя ученым анализировать большие объемы данных и добывая полезную информацию там, где одни симуляции не могут предоставить полную картину происходящего.

Графический ускоритель Tesla V100 создан, чтобы обеспечить слияние HPC и искусственного интеллекта. Это решение для HPC-систем, которое отлично проявит себя как в вычислениях для проведения симуляций, так и обработке данных для извечения из них полезной информации. Благодаря объединению в одной архитектуре ядер CUDA и Tensor, сервер, оснащенный графическими ускорителями Tesla V100, может заменить сотни традиционных CPU-серверов, выполняя традиционные задачи HPC и искусственного интеллекта. Теперь каждый ученый может позволить себе суперкомпьютер, который поможет в решении самых сложных проблем.

ВЫСОЧАЙШАЯ ПРОИЗВОДИТЕЛЬНОСТЬ

Turing-Tensor-Core_30fps_FINAL_736x414[1].gif

Производительность приложений - это не просто флопы. Профессионалы в области вычислений полагаются на серьезные приложения для значительного ускорения научных открытий и анализа данных. Их работа начинается с самых быстрых в мире ускорителей и включает в себя надежную инфраструктуру, возможность контролировать и управлять этой инфраструктурой, а также возможность быстро перенаправлять данные, когда это необходимо. Вычислительная платформа, ускоряемая на графических решениях NVIDIA Tesla, предоставляет все выше указанное для обеспечения непревзойденной производительности приложений в сфере науки, аналитики, инжиниринга, а также в пользовательских и корпоративных приложениях.

Tesla V100 – это первый ускоритель, преодолевший барьер производительности в 100 тера-операций в секунду (TOPS) в задачах глубокого обучения. Второе поколение технологии NVIDIA NVLink™ соединяет несколько графических ускорителей V100, обеспечивая пропускную способность в 160 ГБ/с и позволяя создавать самые мощные вычислительные серверы. Модели, обучение которых занимало недели на системах предыдущего поколения, теперь можно натренировать всего за несколько дней. Благодаря такому серьезному сокращению времени, затрачиваемого на тренировку алгоритмов, искусственный интеллект поможет решить совершенно новые проблемы.




УСКОРЬТЕ РЕШЕНИЕ ЗАДАЧ С ПОМОЩЬЮ РЕШЕНИЙ ДЛЯ ДАТА-ЦЕНТРОВ

17[1].pngУскорение тренировки все более сложных моделей нейросетей является залогом повышения продуктивности специалистов по обработке данных и более быстрого создания сервисов на основе искусственного интеллекта. Серверы на основе Tesla V100 используют производительность новой архитектуры NVIDIA Volta™ и сокращают время тренировки алгоритмов глубокого обучения до нескольких часов.

Инференс – это та задача, для выполнения которой необходимы обученные нейронные сети. Так как новые данные поступают в систему в виде изображений, речи, поисковых запросов по изображениям, именно инференс позволяет находить ответы и давать рекомендации, что лежит в основе большинства сервисов искусственного интеллекта. Сервер, оснащенный одним Tesla GPU, обеспечивает в 27 раз более высокую производительность в задачах инференса по сравнению с сервером на основе CPU, что приводит к значительному снижению затрат на инфраструктуру дата-центра.