Масштабируемое ускорение A100 с NVLinks



Tesla A100 80 Gb с NVLink в immers.cloud
GPU NVIDIA A100 с тензорными ядрами обеспечивает максимальное ускорение задач, связанных с обучением и инференсом моделей ИИ. Графический процессор использует блоки памяти типа HBM2e, находящиеся непосредственно в чипе. Возрастает производительность до 20 раз в сравнении с предыдущими решениями. Обладает пропускной способностью памяти (более 2 ТБ/с).

Тензорные ядра в NVIDIA A100 поддерживают вычисления с точностью FP16–FP64, а также целочисленные вычисления с точностью INT8. Рост производительности до 20 раз в сравнении с предыдущей архитектурой NVIDIA Volta.

Не требует изменений в существующем коде.

Сферы применения


В облаке immers.cloud доступны конфигурации с графическими карты Tesla A100 попарно соединенными с помощью NVLink мостов с пропускной способностью до 1800 ГБ/с. Позволяют обучать модели большего размера без потери производительности при адресации к участкам памяти соседней карты.

Доступны долгосрочные тарифы, позволяющие экономить деньги: скидка 25% при предоплате за 30 дней и скидка 35% при предоплате за 60 дней.

Преимущества
  • Поддержка целочисленных вычислений.
  • Встроенные аппаратные декодеры NVDEC и JPEG.
  • Двукратное увеличение пропускной способности и объема адресуемой памяти при подключении NVLink/GPUDirect.
  • В синтетических и реальных тестах A100 с 80 ГБ памяти демонстрирует производительность в 83 раза выше, чем центральный процессор, и до двух раз выше, чем A100 с 40 ГБ памяти :)
  • Цена за одну карту A100 начинается от 209.95 рублей, а минимальная конфигурация с NVLink от 434,67 руб.

Поднимите проекты на новый уровень производительности и эффективности!
https://immers.cloud
Выделенные серверы OVH
Выделенные серверы Hetzner

0 комментариев

Оставить комментарий