Black Forest Labs · open-weights · ноябрь 2025

Аренда GPU для FLUX.2
запуск за 5 минут,
от 79 ₽/час

FLUX.2 dev — 32B open-weights flow matching от Black Forest Labs. Photoreal, читаемый текст на картинках, multi-reference editing до 4 Мп. RTX 4090 48 ГБ — оптимально под FP8/Q8.

Серверы в РФ (Самарская обл.) Оплата картой РФ, СБП, по счёту

Популярные задачи наших клиентов

Photoreal-съёмка для маркетинга

FLUX.2 [dev] заметно сильнее SD 3.5 и FLUX.1 в фотографических сценах: кожа, материалы, свет, рефлексы. Подходит для product-shots, lookbook'ов, баннеров.

Консистентный персонаж

Multi-reference editing FLUX.2 держит лицо/одежду/позу через набор референсов. Один пайплайн — без LoRA-обучения под каждого героя.

Текст и логотипы на изображении

FLUX.2 рендерит длинные подписи и логотипы корректно — за счёт Mistral-Small-3.2-24B как text encoder. Подходит под key visuals, обложки, открытки, мокапы упаковки.

Другая задача? Напишите нам — подберём конфигурацию.

4 шага до запуска

Как арендовать сервер с RTX 4090

От регистрации до запуска — меньше 10 минут. Без звонков менеджеру и подписания договоров.

1

Соберите сервер

Выберите GPU, объем диска, операционную систему и тариф в конфигураторе.

2

Создайте аккаунт

Простая регистрация через Яндекс-ID, Т-Банк или электронную почту.

3

Пополните баланс

Картой или по счёту для юрлиц. Средства зачисляются мгновенно.

Запустите сервер

И он будет готов через пару минут. Подключайтесь по SSH, RDP или прямо в браузере.

Платите только за время

Остановите сервер в любой момент и неиспользованные деньги вернутся на баланс.

Скидки за долгий срок аренды

При аренде от 3-х месяцев вы получаете скидку от 5% до 25%.

Смена конфига на лету

Начните с CPU‑сервера, затем подключите GPU для тяжёлых задач.

Какую версию выбрать

Флагман

FLUX.2 [dev]

32BFlow Matching · open-weights

Главный open-weights флагман FLUX.2. 32B flow-matching transformer + Mistral-Small-3.2-24B как text encoder. T2I, single- и multi-reference editing в одном чекпойнте. Лицензия dev — non-commercial; коммерция через BFL self-serve license.

VRAM (bf16):
~64 ГБ
VRAM (4-bit):
~19 ГБ (GGUF Q4_K_S)

A100 80 ГБ (BF16) / RTX 4090 48 ГБ (FP8/Q8)

FLUX.2 [klein] 4B

4B (distilled)Distilled · Apache 2.0

Самый быстрый вариант: 4 шага инференса, генерация и редактирование субсекундное. Distilled flow-модель с Qwen3 4B text encoder. Лицензия Apache 2.0 — можно встраивать в продукт без ограничений. Прямой наследник прежнего FLUX.1 [schnell].

VRAM (bf16):
~13 ГБ
VRAM (4-bit):
~6 ГБ

RTX 4090 24/48 ГБ / RTX 3090 24 ГБ / A10 24 ГБ

FLUX.2 [klein] 9B

9BDistilled · non-commercial

Старший klein на 9B-flow с Qwen3 8B text encoder. Качество ближе к [dev] при сохранении 4-шаговой дистилляции. Non-commercial лицензия — для исследований, внутренней разработки, прототипов. ELO 1157 на Artificial Analysis Image Editing Arena.

VRAM (bf16):
~29 ГБ
VRAM (4-bit):
~9 ГБ

RTX 4090 48 ГБ / A100 40 ГБ

FLUX.2 [pro]

closed weightsAPI only

Топ-вариант BFL — только через api.bfl.ai. Лучшее качество и prompt adherence в семействе, ELO ~1265 на text-to-image leaderboard. Self-host невозможен; на Intelion не предлагаем, перечислили для полноты.

VRAM (bf16):
VRAM (4-bit):

недоступен для self-host

FLUX.1 [schnell]

12BApache 2.0 · legacy

Прошлое поколение, Apache 2.0, 4 шага инференса. Всё ещё ставится на проде у тех, кому критична совместимость с существующими LoRA/ControlNet. Для нового проекта берите FLUX.2 [klein] 4B.

VRAM (bf16):
~24 ГБ
VRAM (4-bit):
~8 ГБ

RTX 4090 24/48 ГБ / A10 24 ГБ

FLUX.1 Kontext [dev]

12BImage editing

Специализированный редактор от BFL: img-to-img с сохранением контекста, инпейнтинг, перенос стиля по reference image. Полезен, если задача — именно редактирование, а не генерация с нуля. В FLUX.2 [dev] возможности editing встроены в основной чекпойнт.

VRAM (bf16):
~24 ГБ
VRAM (4-bit):
~8 ГБ

RTX 4090 48 ГБ / A100 80 ГБ

4 способа запуска

Запустите одной командой

После создания сервера подключитесь по SSH и выберите подходящий инструмент.

Day-0 поддержка FLUX.2 в ComfyUI. Загружаете официальный workflow, кладёте веса по папкам — UI запускается на 8188.

# Чистый ComfyUI на RTX 4090 48 ГБ (Ubuntu 24.04, CUDA 12.x)
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI && python3 -m venv venv && source venv/bin/activate
# Pre-install torch+cu128 (под driver 570.x)
pip install torch torchvision torchaudio \
  --index-url https://download.pytorch.org/whl/cu128
pip install -r requirements.txt

# FP8-вариант (помещается в 48 ГБ с запасом):
wget -P models/diffusion_models/ \
  https://huggingface.co/Comfy-Org/flux2-dev/resolve/main/split_files/diffusion_models/flux2_dev_fp8mixed.safetensors
wget -P models/text_encoders/ \
  https://huggingface.co/Comfy-Org/flux2-dev/resolve/main/split_files/text_encoders/mistral_3_small_flux2_fp8.safetensors

# GGUF Q4_K_S для 24 ГБ карт:
wget -P models/diffusion_models/ \
  https://huggingface.co/city96/FLUX.2-dev-gguf/resolve/main/flux2-dev-Q4_K_S.gguf

python3 main.py --listen 0.0.0.0 --port 8188
Запустить FLUX.2

~79 ₽/час · посекундная оплата

Выберите конфигурацию сервера

Укажите параметры и запустите сервер за несколько минут

Тестовый запуск

Тестовый период
для бизнеса

Мы уверены в железе — поэтому даём потестировать до покупки.
Подключитесь по ЭДО, напишите нам, и мы обсудим условия тестового запуска.

Как получить:

  • 1 Подключитесь к нам по ЭДО
  • 2 Напишите нам
  • 3 Получите сервер с RTX 4090

Данные для подключения по ЭДО:

Оператор: АО «Калуга Астрал»

ID: 2AEE383BDF8-E70C-4F74-9E7E-995E8AC21999

Написать нам

Почему арендуют у нас

Серверы работают , мы следим

Мониторинг оборудования 24/7. Неисправный компонент заменим по гарантии без доплат.

Платите только за вычисления

Посекундная тарификация. Выключили сервер — счётчик остановился, данные на диске сохраняются. Скидки до 25% при оплате за 12 месяцев.

Поддержка, а не тикет-система

Сразу инженер, который разбирается в CUDA, PyTorch и настройке GPU-серверов. Ответ — до 15 минут.

Вопросы и ответы

FLUX.2 — следующее поколение, релиз 25 ноября 2025. Главные отличия: 32B параметров в [dev] против 12B в FLUX.1, Mistral-Small-3.2-24B как text encoder (вместо T5-XXL) — отсюда читаемый длинный текст и логотипы, multi-reference editing в одном чекпойнте, поддержка редактирования до 4 Мп без потери деталей. На Artificial Analysis Image Arena FLUX.2 [pro] держит ELO ~1265 (#2 после Nano Banana Pro), а FLUX.2 [dev] лидирует среди open-weights моделей с ELO 1160.

В BF16 — ~64 ГБ VRAM, оптимально A100 80 ГБ. В FP8 / GGUF Q8 — ~32-35 ГБ, помещается на RTX 4090 48 ГБ с запасом под Mistral text encoder. В GGUF Q4_K_S — ~19 ГБ, влезает на 24-ГБ карты, но качество немного просядет. Для klein 4B хватит и 13-16 ГБ.

Зависит от варианта: FLUX.2 [klein] 4B — Apache 2.0, можно встраивать и продавать без ограничений. FLUX.2 [dev] 32B — non-commercial по умолчанию, для коммерции BFL продаёт self-serve лицензию. FLUX.2 [pro] — только через api.bfl.ai по pay-per-image. FLUX.2 [klein] 9B — research-only. Подробности — на bfl.ai/licensing.

Если нужны open-weights и self-host — FLUX.2 [dev] сейчас лучший вариант, обходит SD 3.5 и FLUX.1 во всех сценариях. Если важны художественные стили и не нужен self-host — Midjourney v7. Если нужен максимум фотореализма и лучшее prompt adherence, готовы платить за API — Nano Banana Pro (Gemini 3) или GPT Image 1.5. FLUX.2 выигрывает в text-on-image, редактировании и контроле через структурированные промпты.

Сервер готов за 3-5 минут после оплаты. Дальше — установка ComfyUI или diffusers (~3 минуты), скачивание весов FLUX.2 [dev] (~50 ГБ для BF16, ~15-20 ГБ для FP8/Q8 на гигабитном канале). Итого 10-15 минут до первой картинки. Можно ускорить — у нас есть готовый ComfyUI-образ с предзагруженными весами. Детали — в инструкции по подключению.

Для FLUX.2 [klein] 4B — да, помещается с запасом. Для FLUX.2 [dev] 32B в BF16 — нет, нужно ≥48 ГБ. Но в GGUF Q4_K_S (~19 ГБ) — влезает, с просадкой качества ~5-10%. Для production без компромиссов берите RTX 4090 48 ГБ или A100 80 ГБ.

LoRA-обучение — да, через Diffusers DreamBooth (см. examples/dreambooth/README_flux2.md в repo huggingface/diffusers). На A100 80 ГБ LoRA на 30-50 картинках — 1-3 часа. ControlNet для FLUX.2 пока выходит от сообщества — стабильные варианты для pose/depth/canny появятся в течение нескольких месяцев после релиза. Если ControlNet критичен сейчас — рассмотрите FLUX.1 [dev] с уже зрелой экосистемой.

Нет. Мы запускаем open-weights локально на серверах в РФ (Самарская область). Ни промпты, ни сгенерированные картинки не уходят за пределы сервера. Если нужен изолированный контур — поддержка настроит VPC-подключение и ограничит исходящий трафик.

Платите за каждую секунду работы сервера. Остановили — счётчик замер, диск с весами и workflows сохраняется отдельно (~2 ₽/час за 256 ГБ). Неиспользованный остаток баланса возвращается. Удобно для batch-генерации: поднял на час, сгенерил 200 картинок, выключил.

Да. Работаем с ООО/ИП по договору, оплата по счёту с НДС, ЭДО через Диадок/СБИС. В блоке «Тестовый период для бизнеса» — оператор и ID для ЭДО. Закрывающие документы — ежемесячно автоматически.

FLUX.2 [klein] 4B — официальный наследник FLUX.1 [schnell]. Те же 4 шага инференса и Apache 2.0, но качество заметно выше за счёт нового text encoder Qwen3 4B и обновлённой архитектуры. Если запускаете сегодня — берите klein. FLUX.1 [schnell] оставайтесь на нём, если у вас обученные LoRA, которые ещё не портированы под FLUX.2.

Зависит от варианта и разрешения. Ориентировочно для 1024×1024: FLUX.2 [klein] 4B ~ 60-90 картинок/мин (4 шага), FLUX.2 [dev] FP8 ~ 4-6 картинок/мин (28 шагов), FLUX.2 [dev] BF16 на A100 80 ГБ ~ 6-10 картинок/мин. Для 4 Мп редактирования — ~1-2 картинки/мин на [dev]. Точные цифры зависят от длины промпта, batch size и наличия reference images.

FLUX.2 на вашем GPU
От 79 ₽/час, посекундная оплата.

Оплата в рублях, посекундно. Поддержка 24/7. Запуск за 5 минут с готовым ComfyUI-образом.