NVIDIA H100 SXM5 — это серверный ускоритель на архитектуре Hopper. Карта вышла в 2022 году для работы в кластерах. Памяти здесь 80 ГБ стандарта HBM3. Шина составляет 5120 бит, что дает пропускную способность 3360 ГБ/с. Это не видеокарта для ПК. Она требует специализированной платформы SXM5 с мощным охлаждением. Чип GH100 содержит 16 896 CUDA-ядер и 528 Tensor-ядер. Boost частота держится на уровне 1980 МГц. Пиковая производительность FP32 составляет 66.9 TFLOPS. Карта относится к верхнему сегменту рынка вычислений. Она создана для задач, где обычные GPU упираются в пропускную способность памяти. Основной упор сделан на инференс и обучение тяжелых моделей. В 2026 году конкуренция идет с Blackwell B200 в том же tier. Также против неё выступает AMD Instinct MI300X, которая предлагает больше памяти. H100 остается стандартом для дата-центров. Без серверной стойки и системы жидкостного охлаждения запустить её дома не получится.
5 component-баллов — сильные стороны и слабости карты в разных задачах.
Шкала 0-100. Топовая карта в каждом сценарии = 100. Кликни строку — увидишь полный топ-100 в этой категории. Подробнее — методика.
Балл 1-10 для каждого сценария — пригодность именно для этой задачи (не общий perf-rank).
Карта не имеет видеовыходов и предназначена для вычислений.
Использовать невозможно из-за отсутствия интерфейсов вывода изображения.
Для игр это железо бесполезно.
Идеально для запуска локальных LLM вроде Llama-3-70B или Qwen через vLLM.
Лучший выбор для fine-tune моделей и обучения на больших датасетах.
Работает в Cycles, но отсутствие вывода изображения требует настройки через софт.
NVENC здесь не настроен на классический монтаж в DaVinci.
Для офиса это избыточное и неподходящее оборудование.
Покупать H100 в 2026 году стоит только для узких задач. Это инструмент для AI-инженеров и исследователей. Если ваша цель — запуск локальных LLM весом более 40 ГБ, карта справится. Она работает быстрее многих потребительских решений, потому что шина памяти здесь на порядок шире. Однако обычный пользователь получит только огромные счета за электричество. Для обучения моделей среднего размера лучше смотреть в сторону RTX 6000 Ada. Она проще в установке и имеет стандартный интерфейс PCIe. H100 SXM5 — это узкоспециализированный инструмент. Он не подходит для универсальных рабочих станций. Если вы строите сервер, то это топовый вариант. В сравнении с архитектурой Ampere (A100), Hopper дает заметный прирост в задачах Transformer. Но помните про TDP 700 Вт. Это требует очень серьезного подхода к питанию и охлаждению.
Нет, это невозможно. Форм-фактор SXM5 не имеет стандартного разъема PCIe. Вам понадобится материнская плата с поддержкой SXM5 и специализированный серверный блок питания на 1100 Вт минимум.
Нет, не хватит. TDP самой карты составляет 700 Вт. С учетом остальной системы и пиковых нагрузок вам нужен БП мощностью от 1100 Вт с высоким КПД.
Выбор зависит от задач. MI300X имеет больше памяти, что критично для огромных LLM. Но у NVIDIA лучше развита экосистема CUDA, которая работает стабильнее в большинстве AI-фреймворков.
Да, она справится очень быстро. Благодаря 80 ГБ памяти вы сможете генерировать изображения в огромных разрешениях без ошибок Out of Memory, которые часто бывают на картах с 24 ГБ.
Загружается каталог…