A dublagem com lip-sync por IA é o atalho mais tentador para escalar campanhas e vídeos em várias línguas sem voltar a gravar tudo. Em 2026, já funciona “bem o suficiente” para social e branded — mas a margem para erro legal e reputacional continua curta. O que interessa é saber onde acaba a eficiência e começa o uso indevido de voz e imagem.
Porque é que isto virou tema quente
Localizar em massa reduz custos e acelera aprovações, sobretudo quando tens 10 variações de um anúncio para mercados diferentes. Só que a mesma tecnologia que traduz e sincroniza também consegue imitar pessoas reais — e isso mexe com direitos de personalidade e com obrigações de transparência na UE.
O que a lei portuguesa te obriga a respeitar
Direito à imagem: sem consentimento, é roleta russa
Em Portugal, o Código Civil é claro: o retrato/imagem de uma pessoa não pode ser exposto, reproduzido ou comercializado sem consentimento, com exceções muito específicas (interesse público, notoriedade, enquadramento em lugares públicos, etc.).
Se aplicas lip-sync a um rosto identificável (mesmo com voz “nova”), estás a trabalhar sobre a imagem dessa pessoa.
Direito à voz: não é só “áudio”, é identidade
A jurisprudência portuguesa tem tratado a voz como bem protegido por direitos de personalidade (não é um detalhe técnico; é traço identificativo).
Traduzindo para o terreno: clonar voz ou criar uma voz “muito parecida” sem autorização é convite a problema — ainda que o texto seja diferente.
Direito de autor e conexos: atenção a intérpretes e obras
Se estás a dobrar conteúdos que incluem interpretação (locutores, atores) e obras protegidas, entram em jogo direitos de autor e direitos conexos, com enquadramento no CDADC e supervisão setorial pela IGAC.
O que muda com as regras europeias de IA
O AI Act introduz obrigações de transparência para conteúdos sintéticos/deepfakes: em muitos casos, tens de divulgar que o conteúdo foi gerado ou manipulado artificialmente.
E a Comissão Europeia tem trabalhado instrumentos de apoio à marcação/rotulagem de conteúdos gerados por IA, precisamente para operacionalizar essa transparência.
Checklist prático para reduzir risco (sem matar o projeto)
Garantir consentimento escrito para uso de imagem e/ou voz (inclui treino, duração, territórios e meios).
Definir usos permitidos: “campanha X”, “idiomas Y”, “plataformas Z” — e o que fica proibido.
Incluir cláusula de revogação (como parar uso e retirar versões).
Fazer rotulagem quando aplicável: “conteúdo manipulado/gerado por IA” (sobretudo se parecer real).
Guardar evidência: ficheiros, versões, prompts, datas e aprovações (se der para provar, dormes melhor).
Fecho: A pergunta que vai separar marcas em 2026 não é “dá para dobrar por IA?” — é “se isto for escrutinado amanhã, tens papel e processo para provar que foi feito com consentimento e transparência?”
