Масштабируемое ускорение A100 с NVLinks
Tesla A100 80 Gb с NVLink в immers.cloud
GPU NVIDIA A100 с тензорными ядрами обеспечивает максимальное ускорение задач, связанных с обучением и инференсом моделей ИИ. Графический процессор использует блоки памяти типа HBM2e, находящиеся непосредственно в чипе. Возрастает производительность до 20 раз в сравнении с предыдущими решениями. Обладает пропускной способностью памяти (более 2 ТБ/с).
Тензорные ядра в NVIDIA A100 поддерживают вычисления с точностью FP16–FP64, а также целочисленные вычисления с точностью INT8. Рост производительности до 20 раз в сравнении с предыдущей архитектурой NVIDIA Volta.
Не требует изменений в существующем коде.
Сферы применения
В облаке immers.cloud доступны конфигурации с графическими карты Tesla A100 попарно соединенными с помощью NVLink мостов с пропускной способностью до 1800 ГБ/с. Позволяют обучать модели большего размера без потери производительности при адресации к участкам памяти соседней карты.
Доступны долгосрочные тарифы, позволяющие экономить деньги: скидка 25% при предоплате за 30 дней и скидка 35% при предоплате за 60 дней.
Преимущества
- Поддержка целочисленных вычислений.
- Встроенные аппаратные декодеры NVDEC и JPEG.
- Двукратное увеличение пропускной способности и объема адресуемой памяти при подключении NVLink/GPUDirect.
- В синтетических и реальных тестах A100 с 80 ГБ памяти демонстрирует производительность в 83 раза выше, чем центральный процессор, и до двух раз выше, чем A100 с 40 ГБ памяти :)
- Цена за одну карту A100 начинается от 209.95 рублей, а минимальная конфигурация с NVLink от 434,67 руб.
Поднимите проекты на новый уровень производительности и эффективности!
0 комментариев
Вставка изображения
Оставить комментарий