Alibaba · Apache 2.0 · open-weight

Аренда GPU для Wan 2.2 / 2.6
запуск за 5 минут,
от 168 ₽/час

Open‑weight видеомодели Alibaba: Wan 2.2 T2V, I2V, TI2V и S2V. MoE 27B параметров, 720p 24fps, до 5 секунд клипа на A14B и до 15 секунд через ComfyUI цепочки. Apache 2.0 — коммерческое использование без ограничений.

Серверы в РФ (Самарская обл.) Оплата картой РФ, СБП, по счёту

Популярные задачи наших клиентов

Text‑to‑Video для рекламы

Короткие сценарии 5–15 секунд по текстовому описанию. Реклама, превью продуктов, B‑roll для соцсетей. 720p 24fps без водяных знаков.

Image‑to‑Video оживление кадров

На вход — статичный концепт‑арт или фото, на выход — видео с движением камеры и сцены. Качество Wan2.2‑I2V стабильнее T2V.

Анимация персонажей и motion‑transfer

Wan2.2‑Animate переносит движение с референсного видео на персонажа из кадра. Для виртуальных аватаров, инфлюенсеров, NPC.

Другая задача? Напишите нам — подберём конфигурацию.

4 шага до запуска

Как арендовать сервер с Tesla A100

От регистрации до запуска — меньше 10 минут. Без звонков менеджеру и подписания договоров.

1

Соберите сервер

Выберите GPU, объем диска, операционную систему и тариф в конфигураторе.

2

Создайте аккаунт

Простая регистрация через Яндекс-ID, Т-Банк или электронную почту.

3

Пополните баланс

Картой или по счёту для юрлиц. Средства зачисляются мгновенно.

Запустите сервер

И он будет готов через пару минут. Подключайтесь по SSH, RDP или прямо в браузере.

Платите только за время

Остановите сервер в любой момент и неиспользованные деньги вернутся на баланс.

Скидки за долгий срок аренды

При аренде от 3-х месяцев вы получаете скидку от 5% до 25%.

Смена конфига на лету

Начните с CPU‑сервера, затем подключите GPU для тяжёлых задач.

Какую версию выбрать

ФлагманMoE

Wan2.2‑T2V‑A14B

27B total / 14B activeMoE · Text‑to‑Video

Флагман open‑weight серии. MoE: high‑noise эксперт для композиции, low‑noise — для деталей. 480p и 720p, до 5 секунд за один прогон.

VRAM (bf16):
~80 ГБ
VRAM (4-bit):
~24 ГБ (GGUF Q4)

H100 80 ГБ (bf16) / RTX 4090 48 ГБ (GGUF)

MoE

Wan2.2‑I2V‑A14B

27B total / 14B activeMoE · Image‑to‑Video

Анимация из стартового кадра. Стабильнее, чем T2V, по движениям камеры — меньше «нереалистичных» дрифтов. 480p/720p.

VRAM (bf16):
~80 ГБ
VRAM (4-bit):
~24 ГБ (GGUF Q4)

H100 80 ГБ (bf16) / A100 80 ГБ

Wan2.2‑TI2V‑5B

5BDense · T+I2V

Компактная dense‑модель: text+image → video в одной сети. Подходит для генерации на потребительских картах с 12–24 ГБ VRAM.

VRAM (bf16):
~16 ГБ
VRAM (4-bit):
~8 ГБ

RTX 3090 24 ГБ / RTX 4090 24 ГБ

Wan2.2‑S2V‑14B

14BDense · Speech‑to‑Video

Аудио‑драйвер: на вход референс‑кадр и аудио, на выход видео с lip‑sync и эмоциями. Используется для говорящих аватаров.

VRAM (bf16):
~40 ГБ
VRAM (4-bit):
~14 ГБ

A100 80 ГБ / RTX 4090 48 ГБ

Wan2.2‑Animate‑14B

14BDense · Character

Перенос движения с референс‑видео на персонажа из кадра. Анимация, motion‑transfer, character consistency.

VRAM (bf16):
~40 ГБ
VRAM (4-bit):
~14 ГБ

A100 80 ГБ / RTX 4090 48 ГБ

Wan2.1‑T2V‑14B

14BDense · legacy

Предыдущий dense‑релиз. Ниже качество vs 2.2 MoE, но проще пайплайн и шире набор LoRA‑адаптеров на HF.

VRAM (bf16):
~36 ГБ
VRAM (4-bit):
~12 ГБ

RTX 4090 48 ГБ / A100 40 ГБ

4 способа запуска

Запустите одной командой

После создания сервера подключитесь по SSH и выберите подходящий инструмент.

Самый простой путь. Нативная поддержка Wan2.2 в ComfyUI: T2V, I2V, TI2V, Animate, S2V. Готовые workflow в папке Workflow Templates.

# Установка ComfyUI на Ubuntu 24, CUDA 12.x:
git clone https://github.com/comfyanonymous/ComfyUI && cd ComfyUI
python3 -m venv venv && source venv/bin/activate
# Pre-install torch+cu128 (под driver 570.x)
pip install torch torchvision torchaudio \
  --index-url https://download.pytorch.org/whl/cu128
pip install -r requirements.txt
# Веса T2V (high+low noise FP8 + VAE + text encoder, ~37 ГБ):
hf download Comfy-Org/Wan_2.2_ComfyUI_Repackaged \
  split_files/diffusion_models/wan2.2_t2v_high_noise_14B_fp8_scaled.safetensors \
  split_files/diffusion_models/wan2.2_t2v_low_noise_14B_fp8_scaled.safetensors \
  split_files/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors \
  split_files/vae/wan2.2_vae.safetensors \
  --local-dir models
# Запуск:
python3 main.py --listen 0.0.0.0 --port 8188
Запустить Wan

~168 ₽/час · посекундная оплата

Выберите конфигурацию сервера

Укажите параметры и запустите сервер за несколько минут

Тестовый запуск

Тестовый период
для бизнеса

Мы уверены в железе — поэтому даём потестировать до покупки.
Подключитесь по ЭДО, напишите нам, и мы обсудим условия тестового запуска.

Как получить:

  • 1 Подключитесь к нам по ЭДО
  • 2 Напишите нам
  • 3 Получите сервер с Tesla A100

Данные для подключения по ЭДО:

Оператор: АО «Калуга Астрал»

ID: 2AEE383BDF8-E70C-4F74-9E7E-995E8AC21999

Написать нам

Почему арендуют у нас

Серверы работают , мы следим

Мониторинг оборудования 24/7. Неисправный компонент заменим по гарантии без доплат.

Платите только за вычисления

Посекундная тарификация. Выключили сервер — счётчик остановился, данные на диске сохраняются. Скидки до 25% при оплате за 12 месяцев.

Поддержка, а не тикет-система

Сразу инженер, который разбирается в CUDA, PyTorch и настройке GPU-серверов. Ответ — до 15 минут.

Вопросы и ответы

Wan 2.6 — облачный proprietary‑релиз Alibaba (декабрь 2025), Wan 2.7 — обновление март‑апрель 2026: 1080p, 15 секунд, нативное аудио, доступ только через API. Wan 2.2 — open‑weight (Apache 2.0), веса лежат на Hugging Face. На своём GPU‑сервере мы запускаем именно 2.2 — это то, что можно self‑host без лицензионных рисков.

В bf16 — H100 80 ГБ или A100 80 ГБ. Для GGUF Q4/Q5 хватает RTX 4090 48 ГБ или даже 24 ГБ через Wan2GP. На H100 клип 720p×5 сек генерируется за 4–6 минут, на 4090 в Q5 — за 12–18.

Да. Все open‑weight модели Wan 2.1 и 2.2 (T2V, I2V, TI2V, S2V, Animate) лицензированы под Apache 2.0 — продавать, встраивать в продукт, модифицировать, тренировать LoRA. Закрытые Wan 2.6 / 2.7 — отдельные коммерческие условия Alibaba Cloud, их мы не используем.

Native A14B даёт 5 секунд при 720p 24fps или 480p за один прогон. Через цепочки I2V в ComfyUI собираются клипы 15–30 секунд: последний кадр одной генерации идёт в I2V следующей. Wan 2.6/2.7 (proprietary API) поддерживают 1080p и до 15 секунд из коробки.

Сервер готов за 3–5 минут после оплаты. Установка ComfyUI или Diffusers — ещё ~5 минут, скачивание весов с Hugging Face (50 ГБ для A14B) — 5–15 минут на гигабитном канале. Итого 15–25 минут до первого видео. SSH‑инструкция — здесь.

ComfyUI — для арт‑директоров и продакт‑команд: визуальные нодовые workflow, готовые шаблоны, удобный preview. Diffusers — для встраивания в свой Python‑бэкенд: FastAPI, Celery‑очереди, batch‑генерация. На Intelion работают оба, выбор — по команде, не по железу.

Нет. Hugging Face доступен с наших площадок (Самарская обл., РФ) напрямую, скачивание идёт на скорости канала. Если у вас есть ограничения корпоративной политики — поддержка настроит mirror через S3 Intelion.

Да. LoRA‑тренировка Wan2.2 поддерживается через DiffusionTrainer и kohya‑style скрипты. На A100 80 ГБ тренировка LoRA на 100 клипах занимает 6–12 часов. Адаптеры весят 200–800 МБ и подгружаются как plug‑in в ComfyUI.

Платите за каждую секунду работы сервера, не за количество клипов. Сгенерировали 50 видео за час на H100 — заплатили час. Остановили инстанс — счётчик замер, диск с весами и LoRA сохраняется отдельно (~2 ₽/час за 256 ГБ).

Да. Работаем с ООО/ИП по договору, оплата по счёту, НДС, ЭДО через Диадок/СБИС. В блоке «Тестовый период для бизнеса» — оператор и ID для подключения ЭДО.

Wan 2.1 в своё время возглавил VBench Leaderboard (86.22%), обогнав в том числе Sora; Wan 2.2 поднял планку дальше. Wan лучше держит композицию через MoE high+low‑noise экспертов. HunyuanVideo стабильнее по человеческой анатомии, CogVideoX дешевле по VRAM, но видео заметно более «дёрганое». Для русскоязычной команды плюс Wan — активное community и набор LoRA‑адаптеров на Hugging Face.

Wan 2.2 на вашем GPU
От 168 ₽/час, посекундная оплата.

Оплата в рублях, посекундно. H100/A100 в РФ, без VPN. Поддержка 24/7. Запуск за 5 минут.