Гайды

69

13 марта 2026

ComfyUI в облаке: как запустить на GPU-сервере

Пошаговая настройка ComfyUI на удалённом GPU-сервере: установка, кастомные ноды, модели SDXL и Flux, удалённый доступ

ComfyUI — самый мощный и гибкий интерфейс для генерации изображений на базе Stable Diffusion. Нодовый (node-based) подход позволяет строить сложные пайплайны: от простого txt2img до многостадийных рабочих процессов с ControlNet, IP-Adapter, Upscale и post-processing.

Но для серьёзной работы с ComfyUI нужен мощный GPU. Не у всех есть RTX 4090 под рукой — и здесь на помощь приходит облачный GPU-сервер.

Зачем ComfyUI в облаке?

Причины запускать ComfyUI на удалённом сервере:

  • Мощный GPU без покупки — RTX 4090, A100 или даже H100 по цене аренды
  • Больше VRAM — SDXL комфортно работает от 8 ГБ, Flux.1 требует 12+ ГБ, а сложные пайплайны с несколькими моделями — 24+ ГБ
  • Не нагружает домашний ПК — генерация идёт на сервере, вы работаете через браузер
  • Масштабирование — нужно больше мощности? Берёте GPU побольше
  • Ваш ПК/Mac без GPU — ComfyUI на CPU непрактичен, а облачный GPU решает проблему

Требования к VRAM

Модель / Задача Мин. VRAM Рекомендуемый GPU
SD 1.5 (512×512) 4 ГБ RTX 3060 8GB
SDXL (1024×1024) 8 ГБ RTX 4060 8GB
SDXL + ControlNet + Upscale 12 ГБ RTX 4070 12GB
Flux.1 [dev] (FP16) 16 ГБ RTX 4080 16GB
Flux.1 [dev] (FP8) 12 ГБ RTX 4070 12GB
SDXL + несколько LoRA + IP-Adapter 16 ГБ RTX 4080 16GB
Flux + ControlNet + Upscale пайплайн 24 ГБ RTX 3090 / RTX 4090
Пакетная генерация (batch) 24+ ГБ RTX 4090 / A100

Рекомендация: для комфортной работы с ComfyUI берите GPU с 16+ ГБ VRAM. Для Flux — 24 ГБ.

Установка на GPU-сервере

Шаг 1: Подготовка сервера

После аренды GPU-сервера подключитесь по SSH:

ssh user@your-server-ip

Убедитесь, что GPU доступен:

nvidia-smi

Шаг 2: Установка ComfyUI

# Клонируем репозиторий
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

# Создаём виртуальное окружение
python3 -m venv venv
source venv/bin/activate

# Устанавливаем зависимости
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
pip install -r requirements.txt

Шаг 3: Скачиваем модели

# SDXL
wget -P models/checkpoints/ \
    https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors

# Flux.1 dev (FP8 — экономит VRAM)
wget -P models/checkpoints/ \
    https://huggingface.co/Comfy-Org/flux1-dev/resolve/main/flux1-dev-fp8.safetensors

# VAE для Flux
wget -P models/vae/ \
    https://huggingface.co/black-forest-labs/FLUX.1-dev/resolve/main/ae.safetensors

# CLIP для Flux
wget -P models/clip/ \
    https://huggingface.co/comfyanonymous/flux_text_encoders/resolve/main/clip_l.safetensors
wget -P models/clip/ \
    https://huggingface.co/comfyanonymous/flux_text_encoders/resolve/main/t5xxl_fp8_e4m3fn.safetensors

Шаг 4: Запуск с удалённым доступом

python main.py --listen 0.0.0.0 --port 8188

Теперь ComfyUI доступен по адресу http://your-server-ip:8188 в браузере.

Безопасность: порт 8188 открыт без пароля. Для продакшена настройте SSH-туннель или reverse proxy с аутентификацией (см. раздел ниже).

Безопасный удалённый доступ

Вариант 1: SSH-туннель (рекомендуется)

Не открывайте порт 8188 наружу. Вместо этого:

# На вашем локальном ПК
ssh -L 8188:localhost:8188 user@your-server-ip

Теперь ComfyUI доступен на http://localhost:8188 — весь трафик идёт через зашифрованный SSH-туннель.

Вариант 2: Nginx reverse proxy с паролем

server {
    listen 443 ssl;
    server_name comfyui.your-domain.com;

    ssl_certificate /etc/letsencrypt/live/comfyui.your-domain.com/fullchain.pem;
    ssl_certificate_key /etc/letsencrypt/live/comfyui.your-domain.com/privkey.pem;

    auth_basic "ComfyUI";
    auth_basic_user_file /etc/nginx/.htpasswd;

    location / {
        proxy_pass http://127.0.0.1:8188;
        proxy_http_version 1.1;
        proxy_set_header Upgrade $http_upgrade;
        proxy_set_header Connection "upgrade";
        proxy_set_header Host $host;
    }
}

Установка кастомных нодов

ComfyUI Manager — must-have для управления нодами:

cd custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
cd ..
python main.py --listen 0.0.0.0 --port 8188

После перезапуска в интерфейсе появится кнопка ManagerInstall Custom Nodes.

Популярные кастомные ноды

Нода Для чего
ComfyUI-Manager Управление нодами, моделями
ComfyUI_IPAdapter_plus IP-Adapter для стилизации
ComfyUI-AnimateDiff-Evolved Анимация / видео
ComfyUI_UltimateSDUpscale Тайловый апскейлинг
rgthree-comfy Утилиты: reroute, mute, bookmark
ComfyUI-KJNodes Пакет полезных утилит
comfyui_controlnet_aux Препроцессоры для ControlNet

Docker-деплой

Для стабильного продакшен-окружения:

# docker-compose.yml
services:
  comfyui:
    image: ghcr.io/ai-dock/comfyui:latest
    ports:
      - "8188:8188"
    volumes:
      - ./models:/workspace/ComfyUI/models
      - ./output:/workspace/ComfyUI/output
      - ./custom_nodes:/workspace/ComfyUI/custom_nodes
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: 1
              capabilities: [gpu]
    environment:
      - CLI_ARGS=--listen 0.0.0.0
docker compose up -d

Модели хранятся на хосте в ./models — переживают пересоздание контейнера.

Оптимизация производительности

Экономим VRAM

  • Используйте FP8-версии моделей (Flux FP8 = 12 ГБ вместо 24 ГБ)
  • Включите --lowvram или --gpu-only в параметрах запуска
  • Tiled VAE — декодирует изображение тайлами, экономит 2–4 ГБ
  • Выгружайте модели между генерациями: ComfyUI Manager → Settings → Auto Unload

Ускоряем генерацию

  • SDXL: используйте sgm_uniform scheduler + 20 steps для быстрых результатов
  • Flux: euler sampler + 20 steps — оптимальный баланс скорости и качества
  • Пакетная генерация: увеличьте batch_size (если VRAM позволяет)
  • xformers: pip install xformers — ускоряет attention на 20–30%

Скорость генерации по GPU

GPU SDXL 1024×1024 (20 steps) Flux.1 1024×1024 (20 steps)
RTX 3060 12GB ~25 сек ~90 сек (FP8)
RTX 3090 24GB ~12 сек ~35 сек
RTX 4090 24GB ~6 сек ~18 сек
A100 80GB ~8 сек ~20 сек
H100 80GB ~5 сек ~12 сек

Типичные рабочие процессы

1. Базовый txt2img (SDXL)

Ноды: Load CheckpointCLIP Text Encode (positive + negative) → KSamplerVAE DecodeSave Image

2. Flux.1 с T5 encoder

Ноды: Load Diffusion ModelDualCLIPLoader (clip_l + t5xxl) → CLIP Text EncodeKSamplerVAE DecodeSave Image

3. Img2img с ControlNet

Ноды: Load ImageControlNet Preprocessor (Canny/Depth) → Apply ControlNetKSamplerVAE DecodeSave Image

4. Upscale пайплайн

Ноды: Load ImageUpscale (ESRGAN)VAE EncodeKSampler (низкий denoise 0.3–0.5) → VAE DecodeSave Image

Частые проблемы

«CUDA out of memory»

  1. Уменьшите разрешение генерации
  2. Используйте FP8-версию модели
  3. Включите Tiled VAE
  4. Перезапустите ComfyUI (утечки памяти при долгой работе)
  5. Возьмите GPU с большим VRAM

Медленная загрузка моделей

Модели на HDD загружаются минутами. Решение: --temp-directory /dev/shm (RAM-диск) или SSD.

WebSocket disconnect

При работе через SSH-туннель или reverse proxy — добавьте поддержку WebSocket в nginx (пример выше).

Итог

ComfyUI в облаке — отличный вариант для:
- Работы с Flux и SDXL на мощном GPU без покупки железа
- Пакетной генерации (ночные рендеры на сервере)
- Команд, где несколько дизайнеров используют общий GPU
- Обучения — не рискуете своим железом при экспериментах

Для комфортной работы берите GPU с 16–24 ГБ VRAM. Для Flux-пайплайнов — 24 ГБ и выше.


Хотите запустить ComfyUI на мощном GPU? Арендуйте GPU-сервер в облаке Intelion — мощные видеокарты, оплата по минутам.

Гайды

#GPU

#Flux

#ComfyUI

#Stable Diffusion

#SDXL

#генерация изображений

#облако