Queres testar LTX-2 no ComfyUI sem transformar cada render num “out of memory”? A boa noticia e que a NVIDIA ja publicou presets praticos por faixa de GPU e o ComfyUI evoluiu no weight streaming (usar RAM quando a VRAM nao chega). Aqui vai um setup de terreno — rapido, repetivel e com margem para escalar qualidade.
Setup em 5 minutos
Instala/actualiza o ComfyUI para a versao mais recente.
No Template Browser: Video -> descarrega o template/workflow do LTX-2 e escolhe a variante (Base, 8-step, LoRAs, etc.).
Se tiveres RTX 40/Pro Ada ou superior, a NVIDIA recomenda a variante NVFP8 (FP8) para reduzir tamanho e acelerar.
Presets “nao rebenta” por VRAM
24GB+: 720p24, 4 segundos, 20 steps.
8-16GB: 540p24, 4 segundos, 20 steps.
Regra de ouro: itera barato (curto e leve), depois sobes qualidade. A NVIDIA recomenda comecar por baixar duracao e so depois resolucao; em GPUs mais apertadas, 3-4 segundos e a zona segura.
7 truques para poupar VRAM sem destruir o resultado
1) Duracao primeiro, resolucao depois
Mais segundos = salto de memoria. Se estiver a falhar, corta para 3-4s e so depois mexe no resto.
2) FPS: 15 para “quase estatico”, 24+ para movimento
Se o plano nao vive de motion, descer para 15 FPS costuma salvar VRAM e tempo.
3) Usa o modelo “8-step” para pre-visualizar ideias
O checkpoint destilado existe para iteracao rapida: compoe, aprova, e so depois mudas para Base/qualidade.
4) Aceita o weight streaming… mas sabe o custo
Quando nao cabe na VRAM, o ComfyUI pode usar RAM; funciona, mas fica mais lento. E a velocidade depende do PCIe (mais lanes/geracao = melhor).
5) Desliga previews quando estas a “stressar” memoria
Arrancar o ComfyUI com previews desligados pode poupar VRAM.
6) Liga async offload quando estas no limite
O ComfyUI tem flags de optimizacao (incluindo offload assincrono) pensadas para cenarios de pouca VRAM.
7) Reserva VRAM para o sistema
Se estas no Windows com mil coisas abertas, reserva 1-2GB para o OS e evita picos que matam o render a meio.
Quando (e como) subir para “quase 4K”
O caminho mais estavel e: gera a 540p/720p, valida movimento/consistencia, e so depois faz upscale — a NVIDIA esta a empurrar o “RTX Video node” no ComfyUI para levar o output a 4K rapidamente.
Infelizmente, nao ha milagre: video GenAI ainda e pesado e a diferenca entre “corre bem” e “sofre” pode ser so um aumento de duracao ou FPS. Mas com estes presets e disciplina de iteracao, ja da para produzir sem viver no erro de VRAM.
Se em 2026 a cloud deixar de ser obrigatoria para video IA, a pergunta passa a ser outra: vais preferir gastar em minutos de GPU local… ou em creditos e conveniencia na nuvem?
