Guia: LTX-2 no ComfyUI sem estourar a VRAM (settings reais)

Queres testar LTX-2 no ComfyUI sem transformar cada render num “out of memory”? A boa noticia e que a NVIDIA ja publicou presets praticos por faixa de GPU e o ComfyUI evoluiu no weight streaming (usar RAM quando a VRAM nao chega). Aqui vai um setup de terreno — rapido, repetivel e com margem para escalar qualidade.

Setup em 5 minutos

Instala/actualiza o ComfyUI para a versao mais recente.

No Template Browser: Video -> descarrega o template/workflow do LTX-2 e escolhe a variante (Base, 8-step, LoRAs, etc.).

Se tiveres RTX 40/Pro Ada ou superior, a NVIDIA recomenda a variante NVFP8 (FP8) para reduzir tamanho e acelerar.

Presets “nao rebenta” por VRAM

24GB+: 720p24, 4 segundos, 20 steps.

8-16GB: 540p24, 4 segundos, 20 steps.

Regra de ouro: itera barato (curto e leve), depois sobes qualidade. A NVIDIA recomenda comecar por baixar duracao e so depois resolucao; em GPUs mais apertadas, 3-4 segundos e a zona segura.

7 truques para poupar VRAM sem destruir o resultado
1) Duracao primeiro, resolucao depois

Mais segundos = salto de memoria. Se estiver a falhar, corta para 3-4s e so depois mexe no resto.

2) FPS: 15 para “quase estatico”, 24+ para movimento

Se o plano nao vive de motion, descer para 15 FPS costuma salvar VRAM e tempo.

3) Usa o modelo “8-step” para pre-visualizar ideias

O checkpoint destilado existe para iteracao rapida: compoe, aprova, e so depois mudas para Base/qualidade.

4) Aceita o weight streaming… mas sabe o custo

Quando nao cabe na VRAM, o ComfyUI pode usar RAM; funciona, mas fica mais lento. E a velocidade depende do PCIe (mais lanes/geracao = melhor).

5) Desliga previews quando estas a “stressar” memoria

Arrancar o ComfyUI com previews desligados pode poupar VRAM.

6) Liga async offload quando estas no limite

O ComfyUI tem flags de optimizacao (incluindo offload assincrono) pensadas para cenarios de pouca VRAM.

7) Reserva VRAM para o sistema

Se estas no Windows com mil coisas abertas, reserva 1-2GB para o OS e evita picos que matam o render a meio.

Quando (e como) subir para “quase 4K”

O caminho mais estavel e: gera a 540p/720p, valida movimento/consistencia, e so depois faz upscale — a NVIDIA esta a empurrar o “RTX Video node” no ComfyUI para levar o output a 4K rapidamente.

Infelizmente, nao ha milagre: video GenAI ainda e pesado e a diferenca entre “corre bem” e “sofre” pode ser so um aumento de duracao ou FPS. Mas com estes presets e disciplina de iteracao, ja da para produzir sem viver no erro de VRAM.

Se em 2026 a cloud deixar de ser obrigatoria para video IA, a pergunta passa a ser outra: vais preferir gastar em minutos de GPU local… ou em creditos e conveniencia na nuvem?

Leave a Comment

O seu endereço de email não será publicado. Campos obrigatórios marcados com *