NVIDIA H100 SXM5 80 GB

Hopper · 80 ГБ HBM3 · 16 896 CUDA · 700 Вт TDP · 2022
Сервер

NVIDIA H100 SXM5 — это серверный ускоритель на архитектуре Hopper. Карта вышла в 2022 году для работы в кластерах. Памяти здесь 80 ГБ стандарта HBM3. Шина составляет 5120 бит, что дает пропускную способность 3360 ГБ/с. Это не видеокарта для ПК. Она требует специализированной платформы SXM5 с мощным охлаждением. Чип GH100 содержит 16 896 CUDA-ядер и 528 Tensor-ядер. Boost частота держится на уровне 1980 МГц. Пиковая производительность FP32 составляет 66.9 TFLOPS. Карта относится к верхнему сегменту рынка вычислений. Она создана для задач, где обычные GPU упираются в пропускную способность памяти. Основной упор сделан на инференс и обучение тяжелых моделей. В 2026 году конкуренция идет с Blackwell B200 в том же tier. Также против неё выступает AMD Instinct MI300X, которая предлагает больше памяти. H100 остается стандартом для дата-центров. Без серверной стойки и системы жидкостного охлаждения запустить её дома не получится.

Производительность по сценариям

5 component-баллов — сильные стороны и слабости карты в разных задачах.

Шкала 0-100. Топовая карта в каждом сценарии = 100. Кликни строку — увидишь полный топ-100 в этой категории. Подробнее — методика.

Характеристики

Чип

Архитектура
HPR Hopper
GPU-чип
GH100
CUDA-ядра
16 896
Tensor-ядра
528

Частоты

Базовая
1590 МГц
Boost
1980 МГц
FP32 пик
66.91 TFLOPS
FP16 пик
267.60 TFLOPS

Память

Объём
80 ГБ HBM3
Шина
5120 бит
Частота
1313 МГц
Bandwidth
3360 ГБ/с

Питание и форм-фактор

TDP
700 Вт
Реком. БП
1100 Вт

Выходы и интерфейс

Интерфейс
PCIe 5.0 x16

API и технологии

CUDA
9.0

Соседи по рейтингу

Под какие задачи подходит

Балл 1-10 для каждого сценария — пригодность именно для этой задачи (не общий perf-rank).

4K-гейминг 1 / 10

Карта не имеет видеовыходов и предназначена для вычислений.

1440p 1 / 10

Использовать невозможно из-за отсутствия интерфейсов вывода изображения.

1080p 1 / 10

Для игр это железо бесполезно.

AI-инференс 9 / 10

Идеально для запуска локальных LLM вроде Llama-3-70B или Qwen через vLLM.

AI-обучение 10 / 10

Лучший выбор для fine-tune моделей и обучения на больших датасетах.

3D-рендер 5 / 10

Работает в Cycles, но отсутствие вывода изображения требует настройки через софт.

Видеомонтаж 3 / 10

NVENC здесь не настроен на классический монтаж в DaVinci.

Офис 1 / 10

Для офиса это избыточное и неподходящее оборудование.

Стоит ли покупать в 2026?

Покупать H100 в 2026 году стоит только для узких задач. Это инструмент для AI-инженеров и исследователей. Если ваша цель — запуск локальных LLM весом более 40 ГБ, карта справится. Она работает быстрее многих потребительских решений, потому что шина памяти здесь на порядок шире. Однако обычный пользователь получит только огромные счета за электричество. Для обучения моделей среднего размера лучше смотреть в сторону RTX 6000 Ada. Она проще в установке и имеет стандартный интерфейс PCIe. H100 SXM5 — это узкоспециализированный инструмент. Он не подходит для универсальных рабочих станций. Если вы строите сервер, то это топовый вариант. В сравнении с архитектурой Ampere (A100), Hopper дает заметный прирост в задачах Transformer. Но помните про TDP 700 Вт. Это требует очень серьезного подхода к питанию и охлаждению.

Обновлено редакцией: 2026-05-12.

Плюсы и минусы

Сильные стороны

  • Пропускная способность 3360 ГБ/с
  • 80 ГБ сверхбыстрой HBM3
  • 528 специализированных Tensor-ядер
  • Высокая плотность вычислений FP32

Слабые стороны

  • TDP 700 Вт
  • Форм-фактор SXM5 без видеовыходов
  • Требуется серверная инфраструктура
  • Низкая энергоэффективность (30.7 баллов)

Часто задаваемые вопросы

Можно ли поставить H100 SXM5 в обычный корпус ПК?

Нет, это невозможно. Форм-фактор SXM5 не имеет стандартного разъема PCIe. Вам понадобится материнская плата с поддержкой SXM5 и специализированный серверный блок питания на 1100 Вт минимум.

Хватит ли блока питания на 850 Вт для этой карты?

Нет, не хватит. TDP самой карты составляет 700 Вт. С учетом остальной системы и пиковых нагрузок вам нужен БП мощностью от 1100 Вт с высоким КПД.

Что лучше: H100 или AMD Instinct MI300X?

Выбор зависит от задач. MI300X имеет больше памяти, что критично для огромных LLM. Но у NVIDIA лучше развита экосистема CUDA, которая работает стабильнее в большинстве AI-фреймворков.

Подойдет ли H100 для работы с Stable Diffusion?

Да, она справится очень быстро. Благодаря 80 ГБ памяти вы сможете генерировать изображения в огромных разрешениях без ошибок Out of Memory, которые часто бывают на картах с 24 ГБ.