Рейтинг GPU для AI-инференса — VRAM 10-13 ГБ — Pro и Server

AI-балл — для локального запуска больших языковых моделей, Stable Diffusion XL, fine-tuning и инференса embedding-моделей. Учитывается FP16 TFLOPS × 0.6 + Tensor Cores + memory bandwidth + min(VRAM, 80) ÷ 4. Карты с 80+ ГБ VRAM и оптимизацией под Tensor — в топе.

Фильтры: VRAM 10-13 ГБ + Pro и Server

Гейминг AI-инференс 3D-рендер Вычисления Энергоэффективность
Все Consumer Ноутбуки Pro/Server
Все NVIDIA AMD Intel
VRAM: Любой <8 ГБ 8 ГБ 12 ГБ 16 ГБ 24 ГБ 32+ ГБ
# Модель Сегмент Память TDP AI
#1 NVIDIA CMP 170HX 10 GB Ampere Сервер 10 ГБ 250 Вт
16.7
#2 NVIDIA RTX A5000-12Q Ampere WS 12 ГБ 230 Вт
9.6
#3 NVIDIA RTX 3500 Embedded Ada Generation Ada Lovelace WS 12 ГБ 100 Вт
7.8
#4 NVIDIA Tesla P100 PCIe 12 GB Pascal Сервер 12 ГБ 250 Вт
4.0
#5 NVIDIA RTX A2000 12 GB Ampere WS 12 ГБ 70 Вт
3.8
#6 NVIDIA Quadro M6000 Maxwell 2.0 WS 12 ГБ 250 Вт
1.5
#7 NVIDIA Tesla M40 Maxwell 2.0 Сервер 12 ГБ 250 Вт
1.5
#8 AMD FirePro S9100 GCN 2.0 WS 12 ГБ 225 Вт
1.4
#9 NVIDIA Tesla K80 Kepler 2.0 Сервер 12 ГБ 300 Вт
1.2
#10 AMD FirePro S9050 GCN 1.0 WS 12 ГБ 225 Вт
1.2
#11 NVIDIA Quadro K6000 Kepler WS 12 ГБ 225 Вт
0.9
#12 NVIDIA Quadro K6000 SDI Kepler WS 12 ГБ 239 Вт
0.9
#13 NVIDIA Tesla K40c Kepler Сервер 12 ГБ 245 Вт
0.9
#14 NVIDIA Tesla K40d Kepler Сервер 12 ГБ 245 Вт
0.9
#15 NVIDIA Tesla K40m Kepler Сервер 12 ГБ 245 Вт
0.9
#16 NVIDIA Tesla K40t Kepler Сервер 12 ГБ 245 Вт
0.9
#17 NVIDIA Tesla K40s Kepler Сервер 12 ГБ 245 Вт
0.9
#18 NVIDIA Tesla K40st Kepler Сервер 12 ГБ 245 Вт
0.8