NVIDIA H100 CNX

Hopper · 80 ГБ HBM2e · 14 592 CUDA · 350 Вт TDP · 2023
Сервер

H100 CNX базируется на архитектуре Hopper и чипе GH100. Это серверное решение 2023 года, предназначенное для дата-центров и тяжелых вычислений. Памяти здесь 80 ГБ HBM2e. Шина составляет 5120 бит. Пропускная способность достигает 2040 ГБ/с. Такая конфигурация делает карту идеальной для работы с огромными весами нейросетей, хотя в обычных задачах она бесполезна. Чип имеет 14 592 CUDA-ядра и 456 Tensor-ядер. Частота буста зафиксирована на уровне 1845 МГц. Пиковая производительность FP32 составляет 53.8 TFLOPS. Карта относится к верхнему сегменту. Она не предназначена для игровых ПК. Охлаждение требует серверных стоек с направленным потоком воздуха. В 2026 году в этом же tier её будут теснить Blackwell-решения от NVIDIA. Конкурент B200 будет быстрее в инференсе, но дороже. AMD Instinct MI300X предлагает больше памяти (192 ГБ), если ваша задача требует огромных контекстных окон для LLM.

Производительность по сценариям

5 component-баллов — сильные стороны и слабости карты в разных задачах.

Шкала 0-100. Топовая карта в каждом сценарии = 100. Кликни строку — увидишь полный топ-100 в этой категории. Подробнее — методика.

Характеристики

Чип

Архитектура
HPR Hopper
GPU-чип
GH100
CUDA-ядра
14 592
Tensor-ядра
456

Частоты

Базовая
690 МГц
Boost
1845 МГц
FP32 пик
53.84 TFLOPS
FP16 пик
215.40 TFLOPS

Память

Объём
80 ГБ HBM2e
Шина
5120 бит
Частота
1593 МГц
Bandwidth
2040 ГБ/с

Питание и форм-фактор

TDP
350 Вт
Реком. БП
750 Вт
Питание
8-pin EPS
Длина
267 мм
Слотов
2

Выходы и интерфейс

Интерфейс
PCIe 5.0 x16

API и технологии

CUDA
9.0

Соседи по рейтингу

Под какие задачи подходит

Балл 1-10 для каждого сценария — пригодность именно для этой задачи (не общий perf-rank).

4K-гейминг 2 / 10

Карта не имеет видеовыходов. Запустить игру без спецсредств невозможно.

1440p 1 / 10

Абсолютно не подходит для этой задачи.

1080p 1 / 10

Бессмысленно использовать в таких конфигурациях.

AI-инференс 85 / 10

Отлично подходит для запуска Llama 3-70B или Qwen с большим контекстом благодаря 80 ГБ памяти.

AI-обучение 90 / 10

Оптимально для fine-tune моделей среднего размера в локальных кластерах.

3D-рендер 45 / 10

Рендер возможен через CUDA, но отсутствие игровых драйверов усложняет процесс.

Видеомонтаж 30 / 10

Для DaVinci лучше взять RTX 6000 Ada из-за поддержки специализированных кодеков.

Офис 1 / 10

Не предназначена для офисной работы.

Стоит ли покупать в 2026?

H100 CNX остается мощным инструментом в 2026 году. Она нужна только тем, кто занимается глубоким обучением или инференсом тяжелых LLM. Если ваша цель — локальный запуск моделей на 70B+ параметров, то 80 ГБ HBM2e станут спасением. Для геймеров и обычных пользователей эта карта — пустая трата ресурсов. Она не даст преимуществ в Blender или DaVinci по сравнению с потребительскими картами. Если бюджет ограничен, смотрите в сторону RTX 4090 с 24 ГБ памяти. Она дешевле и проще в установке. Но помните, что 24 ГБ не хватит для серьезных нейросетевых задач. В сравнении с поколением Ampere, Hopper дает кратный прирост именно в Tensor-операциях. Это узкоспециализированный инструмент для инженеров.

Обновлено редакцией: 2026-05-12.

Плюсы и минусы

Сильные стороны

  • 80 ГБ сверхбыстрой HBM2e
  • Пропускная способность 2040 ГБ/с
  • 456 специализированных Tensor-ядер
  • Высокая плотность вычислений FP32

Слабые стороны

  • Отсутствие видеовыходов
  • Требуется серверное охлаждение
  • Низкая эффективность в гейминге
  • Специфический форм-фактор

Часто задаваемые вопросы

Можно ли запустить Stable Diffusion на этой карте?

Да, это возможно через CUDA. Благодаря 80 ГБ памяти вы сможете генерировать изображения в огромных разрешениях или тренировать LoRA без ошибок Out of Memory. Однако скорость генерации одного кадра может быть ниже, чем у RTX 4090, если не использовать оптимизированные библиотеки под Hopper.

Подойдет ли мой домашний блок питания?

TDP карты составляет 350 Вт. Рекомендуемый БП — от 750 Вт. Но проблема не в мощности, а в охлаждении. Без серверного корпуса с мощными вентиляторами чип перегреется за считанные минуты, так как у CNX нет активных кулеров.

Чем она лучше RTX 6000 Ada?

H100 выигрывает в пропускной способности памяти (2040 ГБ/с против гораздо меньших значений у Ada). Это критично для LLM. Но RTX 6000 Ada имеет видеовыходы и лучше работает с графическими API, что делает её более универсальной для рабочих станций.

Стоит ли покупать б/у H100 для AI-задач?

Это риск. Проверяйте состояние памяти HBM2e. Если чипы памяти деградировали, вы получите ошибки при обучении моделей. В 2026 году лучше искать карты с гарантией от поставщиков серверного железа.