Deepfakes e voz clonada: blindar a imagem antes de 2026

Deepfakes e voz clonada: blindar a imagem antes de 2026 - Comprimido

Os deepfakes já não são só um “truque” de internet: entram em casting, dobragens, publicidade e até em fraude com voz. Com o AI Act a ganhar dentes (e datas), a pergunta em Portugal é simples: temos regras que protejam pessoas e produções — ou só remendos quando o estrago já está feito?

O problema real no audiovisual: consentimento virou um ficheiro… que ninguém tem

Num set, “direitos” sempre existiram: cessões de imagem, autorizações, contratos. A diferença é que a IA permite criar uma réplica digital (imagem ou voz) com base em material antigo — às vezes fora do projecto original. E isso baralha três rotinas críticas: autorizações, prova de origem do material e responsabilidade editorial.

AI Act: transparência obrigatória para deepfakes (com calendário)

O AI Act entrou em vigor a 1 de agosto de 2024 e fica plenamente aplicável a 2 de agosto de 2026, com etapas pelo meio (incluindo obrigações para modelos de IA de uso geral a 2 de agosto de 2025). No capítulo da manipulação de imagem/áudio/vídeo, a regra prática é esta: quem usa um sistema que gera/manipula conteúdo e cria um deepfake tem de divulgar que o conteúdo foi artificialmente gerado/manipulado (com exceções limitadas, por exemplo investigação criminal). E a UE já está a empurrar um Código de Boas Práticas para marcação/rotulagem de conteúdos gerados por IA — sinal de que “meter uma frase no fim dos créditos” pode deixar de chegar.

Portugal hoje: há base legal, mas não há “lei deepfake”

Portugal tem proteção forte do direito à imagem (Constituição, art. 26.º) e regra clara no Código Civil: o retrato/imagem não deve ser divulgado sem consentimento (art. 79.º). Na prática, muitos casos acabam também por tocar em proteção de dados (RGPD + Lei n.º 58/2019), porque uma voz e uma cara identificáveis são dados pessoais — e o tratamento sem base legal pode dar processo e coimas.

O nó cego? Deepfakes maliciosos raramente vêm com assinatura e morada. E, no penal, nem sempre encaixam de forma limpa: há enquadramentos possíveis (burla, usurpação de identidade, ilícitos contra a reserva da vida privada), mas a tipificação específica ainda é irregular na prática.

O contraste EUA: contratos a impor “guardrails” (mais rápido do que leis)

Nos EUA, o caminho tem sido sindical e contratual: em 2025, a SAG-AFTRA ratificou um acordo no gaming com regras de consentimento e compensação para réplicas digitais, precisamente para travar substituições silenciosas. E quando alguém tenta contornar, há choque frontal: a queixa ligada à voz “à Darth Vader” em Fortnite mostrou como isto virou tema laboral, não só tecnológico.

O que falta: crime específico para deepfakes sexuais (a correr em paralelo)

A UE aprovou a Diretiva 2024/1385 sobre violência contra as mulheres, que obriga os Estados-Membros a criminalizar a divulgação pública de deepfakes sexualmente explícitos sem consentimento. A transposição tem prazo até 14 de junho de 2027 — ou seja, ainda há uma janela perigosa.

Até agosto de 2026, a compliance vai deixar de ser “tema de juristas” e passar a ser checklist de produção: consentimentos para voz/imagem, registo do que foi gerado por IA e rotulagem onde fizer sentido. A pergunta que fica é: os produtores portugueses vão criar estes protocolos já — ou só depois do primeiro processo mediático que rebente a meio de uma estreia?

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *