Tencent · Hunyuan Community License · open-weight

Аренда GPU для HunyuanVideo
запуск за 5 минут,
от 168 ₽/час

Open‑weight видеомодель Tencent на 13B параметров. Text‑to‑video, image‑to‑video, audio‑driven аватары. H100 80 GB — оптимально под bf16, FP8 укладывается в 48 GB.

Серверы в РФ (Самарская обл.) Оплата картой РФ, СБП, по счёту

Популярные задачи наших клиентов

Text‑to‑video для рекламы и контента

Генерация cinematic‑клипов 720p из текста. Подходит для соцсетей, превью‑роликов, сторис, концепт‑видео. На H100 — клип 5 секунд за 15–25 минут.

Оживление статичных артов (I2V)

('Image‑to‑video из реф‑картинки — анимация продуктовых снимков, иллюстраций, концепт‑артов. Сохраняет композицию исходника.',)

Говорящие аватары и digital humans

HunyuanVideo‑Avatar делает lip‑sync с эмоциями из одного фото + аудио. Применяется для виртуальных ведущих, e‑commerce продуктов, объясняющих видео.

Другая задача? Напишите нам — подберём конфигурацию.

4 шага до запуска

Как арендовать сервер с Tesla A100

От регистрации до запуска — меньше 10 минут. Без звонков менеджеру и подписания договоров.

1

Соберите сервер

Выберите GPU, объем диска, операционную систему и тариф в конфигураторе.

2

Создайте аккаунт

Простая регистрация через Яндекс-ID, Т-Банк или электронную почту.

3

Пополните баланс

Картой или по счёту для юрлиц. Средства зачисляются мгновенно.

Запустите сервер

И он будет готов через пару минут. Подключайтесь по SSH, RDP или прямо в браузере.

Платите только за время

Остановите сервер в любой момент и неиспользованные деньги вернутся на баланс.

Скидки за долгий срок аренды

При аренде от 3-х месяцев вы получаете скидку от 5% до 25%.

Смена конфига на лету

Начните с CPU‑сервера, затем подключите GPU для тяжёлых задач.

Какую версию выбрать

Флагман

HunyuanVideo (T2V 13B)

13BDense · DiT

Базовый text‑to‑video, релиз декабрь 2024. Dual-stream → single-stream DiT, 720p до 129 кадров. На VBench по «human-related» метрикам конкурент Sora.

VRAM (bf16):
~60–80 ГБ
VRAM (4-bit):
~24 ГБ (FP8/GGUF Q4)

H100 80 ГБ (bf16) / RTX 4090 48 ГБ (FP8)

HunyuanVideo‑I2V

13BImage-to-Video

Image‑to‑video на основе HunyuanVideo, релиз 6 марта 2025. Token replace + MLLM‑энкодер для семантики референс‑изображения. Оживляет статичные арты.

VRAM (bf16):
~60–80 ГБ
VRAM (4-bit):
~24 ГБ (FP8)

H100 80 ГБ / A100 80 ГБ

HunyuanVideo FP8 (квантизированная)

13BQuantized · FP8

Официальные FP8‑веса от Tencent (релиз 18 дек 2024) экономят ~10 ГБ VRAM. city96 GGUF Q4 укладывается в 14 ГБ — запуск на потребительских GPU.

VRAM (bf16):
~50 ГБ
VRAM (4-bit):
~14 ГБ (Q4 GGUF)

RTX 4090 48 ГБ / A100 40 ГБ / 4090 24 ГБ (Q4)

HunyuanVideo‑Avatar

13BAudio-driven · Avatar

Audio‑driven генерация говорящих/поющих аватаров из одного фото + аудио. Lip‑sync, эмоции, мульти‑персонаж. Релиз май 2025, single‑GPU режим — 10 ГБ.

VRAM (bf16):
~60 ГБ (multi-GPU) / 10 ГБ (single GPU mode)
VRAM (4-bit):
~10 ГБ

H100 80 ГБ / RTX 4090 24 ГБ (single GPU)

HunyuanVideo‑1.5

8.3BLightweight · DiT

Лёгкая версия, релиз 20 ноября 2025. SSTA (selective sliding tile attention), глиф‑aware текст‑энкодер, 480p→720p→1080p super‑resolution. 720p/121 кадр на 13.6 ГБ.

VRAM (bf16):
~16 ГБ
VRAM (4-bit):
~6–14 ГБ

RTX 4090 24 ГБ / RTX 3090 24 ГБ / A10

4 способа запуска

Запустите одной командой

После создания сервера подключитесь по SSH и выберите подходящий инструмент.

Нативная поддержка HunyuanVideo и I2V с workflow‑шаблонами. city96 GGUF Q4 даёт запуск на 24 ГБ. Самый быстрый способ для арт‑продакшена.

# ComfyUI + HunyuanVideo на Ubuntu 24.04, CUDA 12.x
git clone https://github.com/comfyanonymous/ComfyUI && cd ComfyUI
python3 -m venv venv && source venv/bin/activate
# Pre-install torch+cu128 (под driver 570.x)
pip install torch torchvision torchaudio \
  --index-url https://download.pytorch.org/whl/cu128
pip install -r requirements.txt
# Скачать веса (DiT, VAE, text encoders):
wget -P models/diffusion_models/ \
  https://huggingface.co/Comfy-Org/HunyuanVideo_repackaged/resolve/main/split_files/diffusion_models/hunyuan_video_t2v_720p_bf16.safetensors
wget -P models/text_encoders/ \
  https://huggingface.co/Comfy-Org/HunyuanVideo_repackaged/resolve/main/split_files/text_encoders/clip_l.safetensors \
  https://huggingface.co/Comfy-Org/HunyuanVideo_repackaged/resolve/main/split_files/text_encoders/llava_llama3_fp8_scaled.safetensors
wget -P models/vae/ \
  https://huggingface.co/Comfy-Org/HunyuanVideo_repackaged/resolve/main/split_files/vae/hunyuan_video_vae_bf16.safetensors
python3 main.py --listen 0.0.0.0 --port 8188
Запустить HunyuanVideo

~168 ₽/час · посекундная оплата

Выберите конфигурацию сервера

Укажите параметры и запустите сервер за несколько минут

Тестовый запуск

Тестовый период
для бизнеса

Мы уверены в железе — поэтому даём потестировать до покупки.
Подключитесь по ЭДО, напишите нам, и мы обсудим условия тестового запуска.

Как получить:

  • 1 Подключитесь к нам по ЭДО
  • 2 Напишите нам
  • 3 Получите сервер с Tesla A100

Данные для подключения по ЭДО:

Оператор: АО «Калуга Астрал»

ID: 2AEE383BDF8-E70C-4F74-9E7E-995E8AC21999

Написать нам

Почему арендуют у нас

Серверы работают , мы следим

Мониторинг оборудования 24/7. Неисправный компонент заменим по гарантии без доплат.

Платите только за вычисления

Посекундная тарификация. Выключили сервер — счётчик остановился, данные на диске сохраняются. Скидки до 25% при оплате за 12 месяцев.

Поддержка, а не тикет-система

Сразу инженер, который разбирается в CUDA, PyTorch и настройке GPU-серверов. Ответ — до 15 минут.

Вопросы и ответы

Для max‑качества — HunyuanVideo 13B (T2V) на H100 80 ГБ. Для оживления картинок — HunyuanVideo‑I2V. Для аватаров с речью — HunyuanVideo‑Avatar. Для запуска на 24 ГБ или быстрых тестов — HunyuanVideo‑1.5 (8.3B).

Базовая 13B в bf16 — 60–80 ГБ (H100 80 ГБ оптимально). FP8 — ~50 ГБ, влезает в 48 ГБ RTX 4090 48 ГБ. GGUF Q4 — ~14 ГБ. HunyuanVideo‑1.5 — от 14 ГБ, с offload — от 6 ГБ.

Да, с оговорками. Лицензия — Tencent Hunyuan Community License: сгенерированные видео принадлежат вам, коммерческое использование разрешено. Запреты: монетизация в EU, UK, Южной Корее; платформы с >100M MAU требуют отдельного соглашения с Tencent. При деплое для third‑parties — обязательно раскрывать имя поставщика. Точный текст: LICENSE.txt.

Базовая 13B на H100 80 ГБ15–25 минут за 5‑секундный 720p клип (50 шагов, FlashAttention‑3). С Sliding Tile Attention — до 5 минут. На H200 — 12–18 мин. HunyuanVideo‑1.5 быстрее за счёт SSTA и меньшего размера.

H100 80 ГБ SXM — оптимум: FlashAttention‑3, 80 ГБ под bf16, скорость в 1.5–2× выше A100. A100 80 ГБ — рабочий вариант для bf16. RTX 4090 48 ГБ — только FP8/GGUF, экономит бюджет в 2–3×.

HunyuanVideo — 13B параметров, сильнейшие human‑related метрики (реалистичные люди, движения). Wan 2.2 — лидер VBench по общему качеству и temporal consistency, Apache 2.0. CogVideoX — лучше по сложным prompt‑следованиям, но слабее по людям. Mochi‑1 — topовый для T2V, но 848×480 и до 84 кадров (~2.8s) макс.

Сервер готов за 3–5 минут после оплаты. ComfyUI ставится за 5–10 минут, скачивание весов 13B (~45 ГБ) — 10–20 минут на гигабитном канале. Итого 20–35 минут до первого видео. Детали — в инструкции.

Да. Tencent публикует training‑скрипты в основном репозитории. LoRA на 13B для стиля/персонажа — на H100 80 ГБ 6–24 часа в зависимости от датасета. Для 1.5 (8.3B) — даже на RTX 4090 48 ГБ. Готовые LoRA из community ставятся через ComfyUI Manager.

Нет. Мы запускаем open‑weight веса локально на серверах в РФ (Самарская обл.). Модель не отправляет данные наружу. Для полного изолированного контура — VPC‑подключение через поддержку.

Платите за каждую секунду работы сервера. Остановили — счётчик замер, диск (~2 ₽/час за 256 ГБ) сохраняется отдельно. Удобно для burst‑генерации: запустили на ночь батч из 50 роликов, утром выключили.

Да. Работаем с ООО/ИП по договору, оплата по счёту, НДС, ЭДО через Диадок/СБИС. В блоке «Тестовый период для бизнеса» — оператор и ID для ЭДО.

HunyuanVideo на вашем GPU
От 168 ₽/час, посекундная оплата.

Оплата в рублях, посекундно. Поддержка 24/7. Запуск за 5 минут.