A adoção de IA acelerou, mas os contratos ficaram para trás. Entre clonagem de voz, dublagem e “ajustes” de imagem em pós, muita produção em Portugal ainda trabalha com autorizações vagas — e isso é receita para conflito. Em 2026, o ganho não está em inventar mais papelada: está em ter cláusulas claras que protegem equipas, talentos e clientes.
O que mudou no terreno
Antes, “usar imagem e voz” significava captação e montagem. Agora inclui: treinar modelos, gerar versões futuras, localizar em massa e criar voz sintética. E a lei continua a olhar para voz e imagem como direitos de personalidade — não como ficheiros.
5 cláusulas mínimas (sem juridiquês inútil)
1) Consentimento por escrito e por finalidade
Em Portugal, o direito à imagem exige consentimento para expor/reproduzir/comercializar retrato, com exceções limitadas.
Traduzindo: “para o projeto X” não é o mesmo que “para tudo o que nos apetecer”.
2) Voz não é detalhe: é identidade
A jurisprudência tem tratado o direito à voz como parte do núcleo do direito geral de personalidade.
Se vais sintetizar/clonar, define: pode ou não pode, em que condições, e com que aprovação.
3) Treino e reutilização: sim/não, e até onde
Especifica se o material pode ser usado para treinar modelos (ou alimentar perfis de voz), e se o resultado pode ser reutilizado em campanhas futuras, recuts, outras línguas ou outras plataformas.
4) Duração, territórios e revogação
Define prazo, países e meios de distribuição. E inclui um mecanismo de revogação (como parar uso, retirar peças e bloquear novas gerações). Sem isto, a discussão só começa quando já é tarde.
5) Transparência e rotulagem quando aplicável
O AI Act prevê obrigações de transparência para conteúdo gerado/manipulado (incluindo deepfakes), suportadas por orientações de marcação/rotulagem.
Mesmo quando não é “obrigatório”, muitas vezes é o que salva reputação.
O que falta (e costuma rebentar primeiro)
O ponto fraco é a “autorização genérica” sem processo: sem logs de aprovações, sem versão final assinada, sem registo do que foi gerado. Quando há conflito, ganha quem consegue provar o percurso.
Fecho: Em 2026, a pergunta não é “podemos usar IA?” — é “se alguém contestar amanhã, consegues provar consentimento, âmbito e controlo do que foi gerado?”
