Invoke · Apache 2.0 · UI

Аренда GPU для InvokeAI
запуск за 5 минут,
от 79 ₽/час

Профессиональный UI для Stable Diffusion, SDXL, FLUX.1, FLUX.2, SD 3.5: Unified Canvas, нодовый Workflow editor, ControlNet, IP‑Adapter, LoRA. Оплата в рублях, посекундно.

Серверы в РФ (Самарская обл.) Оплата картой РФ, СБП, по счёту

Популярные задачи наших клиентов

Unified Canvas — инфинитный холст

Бесконечный холст со слоями, regional prompts, inpaint/outpaint в одном пространстве. Замена связке Photoshop + Generative Fill для AI‑ретуши.

Workflow editor — нодовый граф

Визуальный конструктор пайплайнов: загрузка модели, ControlNet, IP‑Adapter, postprocess в одном графе. Сохраняется как JSON и шарится.

ControlNet — точный контроль композиции

Canny, Depth, OpenPose, MLSD, Normal, Tile, Soft Edge, IP2P. Управление позой, перспективой и структурой сцены без потери стиля.

Другая задача? Напишите нам — подберём конфигурацию.

4 шага до запуска

Как арендовать сервер с RTX 4090

От регистрации до запуска — меньше 10 минут. Без звонков менеджеру и подписания договоров.

1

Соберите сервер

Выберите GPU, объем диска, операционную систему и тариф в конфигураторе.

2

Создайте аккаунт

Простая регистрация через Яндекс-ID, Т-Банк или электронную почту.

3

Пополните баланс

Картой или по счёту для юрлиц. Средства зачисляются мгновенно.

Запустите сервер

И он будет готов через пару минут. Подключайтесь по SSH, RDP или прямо в браузере.

Платите только за время

Остановите сервер в любой момент и неиспользованные деньги вернутся на баланс.

Скидки за долгий срок аренды

При аренде от 3-х месяцев вы получаете скидку от 5% до 25%.

Смена конфига на лету

Начните с CPU‑сервера, затем подключите GPU для тяжёлых задач.

Какую версию выбрать

Флагман

FLUX.1 [dev] / [schnell]

12B paramsDiT · Flagship

Black Forest Labs FLUX.1 — топовое качество фотореализма, текста на изображении, рук. Поддерживается в InvokeAI 5.x/6.x. [schnell] — Apache 2.0, [dev] — non‑commercial без лицензии у BFL.

VRAM (bf16):
~24 ГБ
VRAM (4-bit):
~10 ГБ

RTX 4090 48 ГБ / A100 80 ГБ

Stable Diffusion 3.5 Large

8.1BMMDiT

Свежий Stability AI релиз. Лучшая работа с длинными промптами и типографикой среди SD‑семейства.

VRAM (bf16):
~18 ГБ
VRAM (4-bit):
~8 ГБ

RTX 4090 48 ГБ / RTX 3090 24 ГБ (Q8)

SDXL 1.0 + Refiner

3.5B + 6.6BU‑Net · Stable

Зрелая экосистема SDXL: тысячи LoRA, ControlNet моделей, чекпоинтов. Базис большинства production‑пайплайнов.

VRAM (bf16):
~12 ГБ
VRAM (4-bit):
~6 ГБ

RTX 3090 / A10 (24 ГБ)

Stable Diffusion 1.5

0.86BU‑Net · Legacy

Лёгкий базис для быстрых итераций, fine‑tune и embedding‑экспериментов. Огромная библиотека LoRA на CivitAI.

VRAM (bf16):
~4 ГБ
VRAM (4-bit):
~2 ГБ

Любая GPU от 8 ГБ

3 способа запуска

Запустите одной командой

После создания сервера подключитесь по SSH и выберите подходящий инструмент.

Официальный launcher от Invoke — graphical installer для Linux (AppImage). Сам ставит Python‑окружение, модели, запускает UI на 9090.

# Launcher — это Electron-приложение. На headless-сервере (без X)
# его нельзя запустить — используйте Docker или pip метод.
# На локальной машине с GUI:
apt-get update && apt-get install -y libfuse2t64 fuse curl
curl -L -o Invoke.AppImage \
  https://github.com/invoke-ai/launcher/releases/latest/download/Invoke.Community.Edition-latest.AppImage
chmod +x Invoke.AppImage
# Запуск из десктоп-окружения:
./Invoke.AppImage --no-sandbox
# Внутри лаунчера: Install -> запуск UI на http://localhost:9090
# Для удалённого доступа: ssh -L 9090:127.0.0.1:9090 user@server
Запустить InvokeAI

~79 ₽/час · посекундная оплата

Выберите конфигурацию сервера

Укажите параметры и запустите сервер за несколько минут

Тестовый запуск

Тестовый период
для бизнеса

Мы уверены в железе — поэтому даём потестировать до покупки.
Подключитесь по ЭДО, напишите нам, и мы обсудим условия тестового запуска.

Как получить:

  • 1 Подключитесь к нам по ЭДО
  • 2 Напишите нам
  • 3 Получите сервер с RTX 4090

Данные для подключения по ЭДО:

Оператор: АО «Калуга Астрал»

ID: 2AEE383BDF8-E70C-4F74-9E7E-995E8AC21999

Написать нам

Почему арендуют у нас

Серверы работают , мы следим

Мониторинг оборудования 24/7. Неисправный компонент заменим по гарантии без доплат.

Платите только за вычисления

Посекундная тарификация. Выключили сервер — счётчик остановился, данные на диске сохраняются. Скидки до 25% при оплате за 12 месяцев.

Поддержка, а не тикет-система

Сразу инженер, который разбирается в CUDA, PyTorch и настройке GPU-серверов. Ответ — до 15 минут.

Вопросы и ответы

InvokeAI делает ставку на профессиональный workflow: Unified Canvas (как Photoshop, но AI‑native), нодовый Workflow editor и аккуратный Model Manager. ComfyUI — гибче для R&D пайплайнов, но требует ручной сборки графов. A1111 — самый простой txt2img, но уступает по качеству UX и поддержке свежих моделей. Invoke лицензирован под Apache 2.0, разрешено коммерческое использование.

FLUX.1 [dev] в bf16 требует ~24 ГБ VRAM. Минимум — RTX 3090 24 ГБ в Q8. Комфортно — RTX 4090 48 ГБ: помещается bf16 + ControlNet + IP‑Adapter одновременно. Для batch и быстрого LoRA‑training — A100 80 ГБ.

Да. Сам InvokeAI лицензирован под Apache 2.0 — встраивание в коммерческий продукт разрешено. Но лицензия модели — отдельный вопрос: SD 1.5 и SDXL — открыты для коммерции, FLUX.1 [schnell] — Apache 2.0, FLUX.1 [dev] — non‑commercial без отдельной лицензии у Black Forest Labs. Проверяйте лицензию каждого чекпоинта перед продакшеном.

FLUX.1 [dev] — ~24 ГБ, SD 3.5 Large — ~16 ГБ, SDXL — ~7 ГБ, SD 1.5 — ~4 ГБ. С учётом LoRA, ControlNet, VAE и кэша рекомендуем от 256 ГБ NVMe. Для серьёзной работы и нескольких семейств моделей — 512 ГБ или 1 ТБ.

Сервер выдаётся за 3–5 минут после оплаты. Установка InvokeAI через launcher или Docker — ещё 2–5 минут, скачивание базового чекпоинта (SDXL ~7 ГБ) на гигабитном канале — 1–2 минуты. Итого 10–15 минут до первого арта. SSH‑инструкция — здесь.

Да и это рекомендуемый вариант с точки зрения безопасности. По умолчанию запускайте UI на 127.0.0.1:9090, а с локальной машины — ssh -L 9090:127.0.0.1:9090 user@server. В браузере открывайте http://localhost:9090 — UI без выставления порта в интернет.

В Invoke 5.x/6.x встроен LoRA training прямо в UI: загружаете 20–80 фото, задаёте concept token, выбираете базу (SDXL рекомендуется), запускаете. На RTX 4090 48 ГБ — character LoRA готова за 1–3 часа. Для более тонких настроек (rank, alpha, LR) — advanced‑вкладка тренера.

Да. Начиная с Invoke 6.x добавлена поддержка FLUX.2 Klein (4B и 9B варианты) и Z-Image — ставятся через Model Manager. Для FLUX.2 Klein 9B комфортный объём VRAM — 24+ ГБ (bf16) или 12 ГБ (Q4/Q8). Лицензия моделей — проверяйте на странице на HuggingFace отдельно.

Да. ControlNet (Canny, Depth, OpenPose, MLSD, Tile, Soft Edge, Normal) и IP‑Adapter (Plus, FaceID, Style) встроены в Unified Canvas и Workflow editor. Нужные веса скачиваются из Model Manager в один клик.

InvokeAI работает полностью локально на вашем GPU‑сервере. Никакой телеметрии в сторону Invoke или сторонних сервисов. Все арты, промпты, чекпоинты остаются на вашем диске в РФ (Самарская обл.).

Да. Работаем с ООО и ИП по договору, оплата по счёту, НДС, ЭДО через Диадок и СБИС. В блоке «Тестовый период для бизнеса» — оператор и ID для подключения ЭДО.

Платите за каждую секунду работы. Если останавливаете сервер на ночь — счётчик замирает, диск с весами и LoRA сохраняется (~2 ₽/час за 256 ГБ). Утром стартуете — продолжаете с того же чекпоинта и галереи. Неиспользованный остаток баланса возвращается.

A100 80 ГБ или H100 80 ГБ + reverse proxy (nginx/Caddy) с basic auth перед InvokeAI. На одной 80 ГБ карте 3–5 артистов комфортно работают параллельно с FLUX/SDXL. Для большего пика нагрузки — две карты с балансировщиком очередей.

InvokeAI на вашем GPU
От 79 ₽/час, посекундная оплата.

Оплата в рублях, посекундно. Поддержка 24/7. Запуск за 5 минут.