Для серьёзных AI-задач — локальной LLM 30B-класса, training small models, Stable Diffusion XL без CPU-оффлоада — нужно от 24 ГБ VRAM. Меньше — модели не помещаются и приходится бить на куски.
Если бюджет до 100к ₽ — смотри подборку 12-16 ГБ для AI. Это меньше памяти, но 70% задач закроет.