TL;DR: O Parlamento Europeu aprovou em 25 de março de 2026 a proibição de sistemas de IA usados para criar ou manipular imagens sexualmente explícitas sem consentimento, incluindo deepfakes. A medida é parte do EU AI Act e afeta diretamente empresas que desenvolvem ou usam plataformas de IA generativa para criação de imagens. Se você opera no mercado europeu ou usa ferramentas com esse tipo de funcionalidade, é hora de revisar compliance.
Você não precisa estar construindo um aplicativo de deepfakes para ser afetado por essa decisão. Qualquer empresa que desenvolva, distribua ou integre ferramentas de IA generativa com capacidade de criar imagens realistas de pessoas precisa entender o que o Parlamento Europeu decidiu na última semana, e por quê isso importa além das manchetes.
Na terça-feira, 25 de março, segundo o European Parliament, a votação aprovou a proibição de sistemas de inteligência artificial que criam ou manipulam imagens sexualmente explícitas, incluindo o que o setor conhece como deepfakes de nudificação. A medida representa uma das aplicações mais concretas do EU AI Act até agora, com foco explícito na proteção de direitos fundamentais.
Conforme a votação aprovada, esses sistemas são enquadrados no marco regulatório europeu como práticas proibidas ou de alto risco, segundo o Parlamento Europeu. Não é mais território cinzento.
O que o Parlamento aprovou, exatamente
A votação diz respeito a sistemas de IA que geram ou modificam imagens para tornar pessoas reconhecíveis em contextos sexualmente explícitos sem o consentimento delas. Isso inclui ferramentas que "despem" fotos de pessoas reais e modelos treinados para criar conteúdo sexual a partir de imagens não sexuais.
Conforme anunciado pelo Parlamento Europeu, a medida está inserida na estrutura do EU AI Act, que já estava em vigor mas ainda ganhava detalhamento em categorias específicas de uso proibido. Essa votação representa um avanço no enforcement regulatório, não apenas uma declaração de intenção.
É importante distinguir dois grupos afetados. O primeiro são as ferramentas diretamente proibidas: plataformas cuja função principal ou secundária relevante seja criar esse tipo de conteúdo. O segundo são plataformas de IA generativa de uso geral que precisam garantir que seus sistemas não sejam usados para esse fim, o que implica guardrails técnicos e políticas de uso documentadas.
Por que isso vai além do óbvio
A reação imediata de muita gente ao ler essa notícia é: "bom, mas eu não faço deepfakes". O problema é que o escopo regulatório é mais amplo do que parece.
Ferramentas de geração de imagem por IA, editores visuais baseados em modelos de difusão, e plataformas de criação de conteúdo com avatares realistas estão todas no raio de atenção dos reguladores europeus. Não porque vão ser proibidas em bloco, mas porque precisam demonstrar controles ativos contra o abuso descrito na regulação.
Se a sua empresa usa ou revende uma dessas ferramentas para clientes europeus, a responsabilidade de compliance pode recair sobre você, não apenas sobre o fornecedor da tecnologia. Esse é o modelo de responsabilidade compartilhada que o EU AI Act estabelece: quem distribui e implanta também responde.
O impacto prático para founders e gestores
Pense em uma agência de marketing que usa ferramentas de IA para gerar imagens de pessoas em campanhas publicitárias. Ou uma startup de edtech que cria avatares de instrutores com IA. Ou um desenvolvedor que integra uma API de geração de imagem em um produto SaaS.
Nenhum desses casos envolve intenção maliciosa. Mas todos envolvem sistemas que, se não tiverem controles adequados, podem ser explorados para criar exatamente o tipo de conteúdo que o Parlamento Europeu acaba de proibir. E a pergunta que os reguladores vão fazer é: você tinha salvaguardas? Você documentou isso? Você sabe como sua ferramenta é usada pelos seus usuários finais?
Para donos de empresa com operação ou clientes na Europa, os próximos passos concretos incluem revisar os termos de uso e políticas das ferramentas de IA que você contrata, checar se os fornecedores têm documentação de conformidade com o EU AI Act, e garantir que os seus próprios termos de uso proíbam explicitamente usos que violem a regulação. Não é paranoia, é gestão de risco básica. Multas sob o EU AI Act podem ser significativas, conforme os tetos previstos no regulamento europeu.
Para os impactos do EU AI Act para empresas brasileiras, a lógica é a mesma que se aplica a qualquer regulação europeia com alcance extraterritorial: se você vende para o mercado europeu, a localização da sua sede não te isenta.
O que isso diz sobre a direção da regulação global
Essa votação não acontece no vácuo. Diversos países e jurisdições, incluindo Reino Unido, Austrália e alguns estados americanos, têm avançado em discussões e legislações sobre deepfakes não consensuais. A Europa estava relativamente atrasada em transformar o consenso moral em texto legal com dentes.
A aprovação desta semana muda isso. E a experiência mostra que quando a Europa regula com especificidade, outros mercados tendem a seguir o modelo, muitas vezes de forma ainda mais restritiva. Para empresas brasileiras que olham para expansão internacional, entender o EU AI Act pode ser relevante para antecipar tendências regulatórias que outros mercados tendem a acompanhar.
A regulação de IA no Brasil ainda está em desenvolvimento, e o debate sobre deepfakes sexuais faz parte da agenda pública. Você pode ler mais sobre o cenário local em nosso artigo sobre regulação de IA no Brasil em 2026.
Conclusão
A proibição aprovada pelo Parlamento Europeu é uma boa notícia para proteção de direitos fundamentais, e é também um sinal claro sobre para onde a regulação de IA está caminhando. Deepfakes sexuais não consensuais causam dano real e documentado a pessoas reais, e a regulação estava atrasada em relação ao problema.
Para empresas, o recado é direto: a janela de operar em áreas cinzentas da geração de imagens por IA está se fechando, e mais rápido do que muitos esperavam. Quem já está com compliance estruturado não tem com o que se preocupar. Quem ainda trata isso como detalhe para resolver depois está acumulando risco regulatório que vai custar caro.
O próximo passo prático é simples: mapeie quais ferramentas de IA generativa você usa ou oferece, entenda o que os fornecedores dizem sobre conformidade com o EU AI Act, e documente os seus controles internos. Não precisa de advogado para começar. Precisa de atenção.



