A 5 de janeiro de 2026, na CES, a NVIDIA apresentou um pipeline que promete vídeo IA 4K mais rápido e com menos memória — a correr localmente em RTX, com LTX-2 e upgrades no ComfyUI. A mensagem é simples: se antes a nuvem era “o preço de entrada”, agora pode passar a ser só mais uma opção.
O contexto: 4K gerativo era sinônimo de upload, custos e pouca margem de controlo
Quem já tentou gerar vídeo “a sério” sabe o problema: modelos pesados, limites de duração, custos por tentativa e aquela ansiedade de meter material sensível num serviço externo. O salto que a NVIDIA está a vender na CES 2026 não é só “mais resolução” — é trazer o centro do workflow para a máquina do criador, com privacidade e latência baixa.
3x mais rápido e menos VRAM: o truque está na precisão (NVFP4/NVFP8)
O headline técnico é este: optimizações em PyTorch-CUDA e suporte nativo de NVFP4/NVFP8 no ComfyUI permitem “até 3x” performance e “até 60%” menos VRAM em workloads de vídeo/imagem — com diferenças entre RTX 50 (NVFP4) e NVFP8 (várias RTX). Isto é o tipo de melhoria que muda o que cabe (ou não) numa GPU de estúdio pequeno.
Na prática: menos crashes a meio, mais iteração por hora e menos necessidade de “descer a ambição” só porque a placa não aguenta.
Pipeline com Blender + keyframes: menos “prompt roulette”, mais realização
O pipeline anunciado assenta em três “blueprints”: geração de objectos 3D, geração de keyframes fotorealistas guiados por cena em Blender, e geração de vídeo que anima entre keyframes e faz upscale. É uma abordagem interessante porque desloca o controlo do texto para a mise-en-scène — ótimo para quem quer previsualização e continuidade, não só clipes bonitos ao acaso.
Upscale 4K em segundos dentro do ComfyUI (e o peso do “node-based”)
A NVIDIA diz que o novo “RTX Video node” no ComfyUI faz upscale para 4K em tempo real, “em segundos”, e chega ao ComfyUI no mês seguinte ao anúncio.
Isto encaixa bem no lado modular do ComfyUI: uma interface visual para montar, depurar e organizar workflows por nós (nodes), algo que já é quase “língua franca” na comunidade.
O que falta: hardware não é grátis, e a cloud continua a ter um papel
O calcanhar de Aquiles é óbvio: para trocar cloud por local, alguém paga em ferro e electricidade — e nem todas as equipas querem gerir drivers, versões e perfis de memória. Além disso, a própria Lightricks mete uma nuance importante: o modelo é “open weights”, mas com regras de licenciamento comercial acima de certos patamares de receita, o que pode baralhar alguns estúdios.
Se esta trajectória se confirmar, 2026 pode ser o ano em que gerar vídeo com IA no PC deixa de ser “demo de laboratório” e passa a ser uma ferramenta de produção diária — resta saber se os criadores preferem a liberdade do local… ou a conveniência (e escala) da nuvem quando o prazo aperta.
