69
13 марта 2026
ComfyUI в облаке: как запустить на GPU-сервере
Пошаговая настройка ComfyUI на удалённом GPU-сервере: установка, кастомные ноды, модели SDXL и Flux, удалённый доступ
ComfyUI — самый мощный и гибкий интерфейс для генерации изображений на базе Stable Diffusion. Нодовый (node-based) подход позволяет строить сложные пайплайны: от простого txt2img до многостадийных рабочих процессов с ControlNet, IP-Adapter, Upscale и post-processing.
Но для серьёзной работы с ComfyUI нужен мощный GPU. Не у всех есть RTX 4090 под рукой — и здесь на помощь приходит облачный GPU-сервер.
Зачем ComfyUI в облаке?
Причины запускать ComfyUI на удалённом сервере:
- Мощный GPU без покупки — RTX 4090, A100 или даже H100 по цене аренды
- Больше VRAM — SDXL комфортно работает от 8 ГБ, Flux.1 требует 12+ ГБ, а сложные пайплайны с несколькими моделями — 24+ ГБ
- Не нагружает домашний ПК — генерация идёт на сервере, вы работаете через браузер
- Масштабирование — нужно больше мощности? Берёте GPU побольше
- Ваш ПК/Mac без GPU — ComfyUI на CPU непрактичен, а облачный GPU решает проблему
Требования к VRAM
| Модель / Задача | Мин. VRAM | Рекомендуемый GPU |
|---|---|---|
| SD 1.5 (512×512) | 4 ГБ | RTX 3060 8GB |
| SDXL (1024×1024) | 8 ГБ | RTX 4060 8GB |
| SDXL + ControlNet + Upscale | 12 ГБ | RTX 4070 12GB |
| Flux.1 [dev] (FP16) | 16 ГБ | RTX 4080 16GB |
| Flux.1 [dev] (FP8) | 12 ГБ | RTX 4070 12GB |
| SDXL + несколько LoRA + IP-Adapter | 16 ГБ | RTX 4080 16GB |
| Flux + ControlNet + Upscale пайплайн | 24 ГБ | RTX 3090 / RTX 4090 |
| Пакетная генерация (batch) | 24+ ГБ | RTX 4090 / A100 |
Рекомендация: для комфортной работы с ComfyUI берите GPU с 16+ ГБ VRAM. Для Flux — 24 ГБ.
Установка на GPU-сервере
Шаг 1: Подготовка сервера
После аренды GPU-сервера подключитесь по SSH:
ssh user@your-server-ip
Убедитесь, что GPU доступен:
nvidia-smi
Шаг 2: Установка ComfyUI
# Клонируем репозиторий
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
# Создаём виртуальное окружение
python3 -m venv venv
source venv/bin/activate
# Устанавливаем зависимости
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
pip install -r requirements.txt
Шаг 3: Скачиваем модели
# SDXL
wget -P models/checkpoints/ \
https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors
# Flux.1 dev (FP8 — экономит VRAM)
wget -P models/checkpoints/ \
https://huggingface.co/Comfy-Org/flux1-dev/resolve/main/flux1-dev-fp8.safetensors
# VAE для Flux
wget -P models/vae/ \
https://huggingface.co/black-forest-labs/FLUX.1-dev/resolve/main/ae.safetensors
# CLIP для Flux
wget -P models/clip/ \
https://huggingface.co/comfyanonymous/flux_text_encoders/resolve/main/clip_l.safetensors
wget -P models/clip/ \
https://huggingface.co/comfyanonymous/flux_text_encoders/resolve/main/t5xxl_fp8_e4m3fn.safetensors
Шаг 4: Запуск с удалённым доступом
python main.py --listen 0.0.0.0 --port 8188
Теперь ComfyUI доступен по адресу http://your-server-ip:8188 в браузере.
Безопасность: порт 8188 открыт без пароля. Для продакшена настройте SSH-туннель или reverse proxy с аутентификацией (см. раздел ниже).
Безопасный удалённый доступ
Вариант 1: SSH-туннель (рекомендуется)
Не открывайте порт 8188 наружу. Вместо этого:
# На вашем локальном ПК
ssh -L 8188:localhost:8188 user@your-server-ip
Теперь ComfyUI доступен на http://localhost:8188 — весь трафик идёт через зашифрованный SSH-туннель.
Вариант 2: Nginx reverse proxy с паролем
server {
listen 443 ssl;
server_name comfyui.your-domain.com;
ssl_certificate /etc/letsencrypt/live/comfyui.your-domain.com/fullchain.pem;
ssl_certificate_key /etc/letsencrypt/live/comfyui.your-domain.com/privkey.pem;
auth_basic "ComfyUI";
auth_basic_user_file /etc/nginx/.htpasswd;
location / {
proxy_pass http://127.0.0.1:8188;
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection "upgrade";
proxy_set_header Host $host;
}
}
Установка кастомных нодов
ComfyUI Manager — must-have для управления нодами:
cd custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
cd ..
python main.py --listen 0.0.0.0 --port 8188
После перезапуска в интерфейсе появится кнопка Manager → Install Custom Nodes.
Популярные кастомные ноды
| Нода | Для чего |
|---|---|
| ComfyUI-Manager | Управление нодами, моделями |
| ComfyUI_IPAdapter_plus | IP-Adapter для стилизации |
| ComfyUI-AnimateDiff-Evolved | Анимация / видео |
| ComfyUI_UltimateSDUpscale | Тайловый апскейлинг |
| rgthree-comfy | Утилиты: reroute, mute, bookmark |
| ComfyUI-KJNodes | Пакет полезных утилит |
| comfyui_controlnet_aux | Препроцессоры для ControlNet |
Docker-деплой
Для стабильного продакшен-окружения:
# docker-compose.yml
services:
comfyui:
image: ghcr.io/ai-dock/comfyui:latest
ports:
- "8188:8188"
volumes:
- ./models:/workspace/ComfyUI/models
- ./output:/workspace/ComfyUI/output
- ./custom_nodes:/workspace/ComfyUI/custom_nodes
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: 1
capabilities: [gpu]
environment:
- CLI_ARGS=--listen 0.0.0.0
docker compose up -d
Модели хранятся на хосте в ./models — переживают пересоздание контейнера.
Оптимизация производительности
Экономим VRAM
- Используйте FP8-версии моделей (Flux FP8 = 12 ГБ вместо 24 ГБ)
- Включите
--lowvramили--gpu-onlyв параметрах запуска - Tiled VAE — декодирует изображение тайлами, экономит 2–4 ГБ
- Выгружайте модели между генерациями: ComfyUI Manager → Settings → Auto Unload
Ускоряем генерацию
- SDXL: используйте
sgm_uniformscheduler + 20 steps для быстрых результатов - Flux:
eulersampler + 20 steps — оптимальный баланс скорости и качества - Пакетная генерация: увеличьте batch_size (если VRAM позволяет)
- xformers:
pip install xformers— ускоряет attention на 20–30%
Скорость генерации по GPU
| GPU | SDXL 1024×1024 (20 steps) | Flux.1 1024×1024 (20 steps) |
|---|---|---|
| RTX 3060 12GB | ~25 сек | ~90 сек (FP8) |
| RTX 3090 24GB | ~12 сек | ~35 сек |
| RTX 4090 24GB | ~6 сек | ~18 сек |
| A100 80GB | ~8 сек | ~20 сек |
| H100 80GB | ~5 сек | ~12 сек |
Типичные рабочие процессы
1. Базовый txt2img (SDXL)
Ноды: Load Checkpoint → CLIP Text Encode (positive + negative) → KSampler → VAE Decode → Save Image
2. Flux.1 с T5 encoder
Ноды: Load Diffusion Model → DualCLIPLoader (clip_l + t5xxl) → CLIP Text Encode → KSampler → VAE Decode → Save Image
3. Img2img с ControlNet
Ноды: Load Image → ControlNet Preprocessor (Canny/Depth) → Apply ControlNet → KSampler → VAE Decode → Save Image
4. Upscale пайплайн
Ноды: Load Image → Upscale (ESRGAN) → VAE Encode → KSampler (низкий denoise 0.3–0.5) → VAE Decode → Save Image
Частые проблемы
«CUDA out of memory»
- Уменьшите разрешение генерации
- Используйте FP8-версию модели
- Включите Tiled VAE
- Перезапустите ComfyUI (утечки памяти при долгой работе)
- Возьмите GPU с большим VRAM
Медленная загрузка моделей
Модели на HDD загружаются минутами. Решение: --temp-directory /dev/shm (RAM-диск) или SSD.
WebSocket disconnect
При работе через SSH-туннель или reverse proxy — добавьте поддержку WebSocket в nginx (пример выше).
Итог
ComfyUI в облаке — отличный вариант для:
- Работы с Flux и SDXL на мощном GPU без покупки железа
- Пакетной генерации (ночные рендеры на сервере)
- Команд, где несколько дизайнеров используют общий GPU
- Обучения — не рискуете своим железом при экспериментах
Для комфортной работы берите GPU с 16–24 ГБ VRAM. Для Flux-пайплайнов — 24 ГБ и выше.
Хотите запустить ComfyUI на мощном GPU? Арендуйте GPU-сервер в облаке Intelion — мощные видеокарты, оплата по минутам.
#GPU
#Flux
#ComfyUI
#Stable Diffusion
#SDXL
#генерация изображений
#облако