GENJURÍDICO
inteligencia-artificial-rotulagem-obrigatoria-deepfake-regulacao (1)

32

Ínicio

>

Artigos

>

Civil

>

Direito Digital

ARTIGOS

CIVIL

DIREITO DIGITAL

Inteligência Artificial e Rotulagem Obrigatória

Anderson Schreiber

Anderson Schreiber

23/04/2026

                  A escalada do conflito no Oriente Médio foi transmitida em tempo real para todo o mundo por meio da divulgação de vídeos e imagens. O único problema é que uma parte relevante deste conteúdo era falsa.[1] Imagens e vídeos gerados por Inteligência Artificial foram utilizados para embasar narrativas distintas sobre o que estava realmente acontecendo no Irã e isso reforçou a preocupação de estudiosos de todo o planeta com o uso desregrado da IA.  

                  Nos últimos dias, o Brasil viveu uma pequena amostra deste problema: imagens e vídeos sobre as chuvas que assolaram o Estado de Minas Gerais foram transmitidos para dar notícia da tragédia. Em meio à comoção gerada pelo sofrimento das pessoas atingidas, assistimos à difusão de imagens chocantes, que mostravam cidades submersas, resgates heroicos e imensos deslizamentos de terra. Uma parte desses vídeos e imagens era inteiramente falsa ou parcialmente manipulada por ferramentas de IA.[2] Não se sabe se a intenção daqueles que produziram este conteúdo foi incutir mais solidariedade no público ou aproveitar uma tragédia para atrair maior visibilidade para seus próprios perfis em redes sociais, mas o fato é que uma parcela do conteúdo audiovisual que circulou sobre o episódio não era real.

Usos legítimos e ilegítimos da IA na produção de conteúdo falso

                  O uso de IA para amparar narrativas contrafactuais pode se dirigir a diferentes propósitos. Alguns destes propósitos podem ser legítimos e inofensivos, como fazer humor. Em 2023, por exemplo, as redes sociais foram ao delírio com uma imagem do Papa Francisco vestindo um enorme casaco branco do tipo puffer. Ao ver um Pontífice mundialmente conhecido por seus hábitos espartanos ornado com um casaco estiloso, boa parte do público se divertiu. A imagem, naturalmente, era falsa e tinha sido produzida por IA.[3] Não chegou a causar prejuízos.

            Entretanto, vídeos e imagens contrafactuais criados por IA podem servir também a propósitos ilegítimos e perigosíssimos. Governos podem criar e difundir imagens e vídeos falsos para contar aos seus cidadãos e ao mundo que venceram uma guerra ou alegar que foram injustamente agredidos por uma nação estrangeira ou, ainda, espalhar o pânico em populações consideradas inimigas. E os próprios particulares também tem o poder de fazer isso, na medida em que, nos últimos anos, a capacidade de produzir conteúdo inverídico altamente convincente deixou de ser um privilégio de experts e programadores; qualquer usuário de um telefone celular dispõe de avançadas ferramentas de IA, com manejo extremamente facilitado, que podem ser usadas para convencer os outros de algo que é objetivamente falso.

O risco das deepfakes

                        Por exemplo, milhares de pessoas já assistiram a um vídeo ultrarrealista em que o Presidente Volodymyr Zelensky anuncia a rendição das tropas ucranianas em meio ao conflito com a Rússia. O vídeo viralizou de tal forma no meio digital que chegou a ser publicado em um site de notícias antes de se descobrir que se tratava de uma deepfake.[4] Vídeos falsos de explosões nas proximidades do Pentágono, em Washington, nos Estados Unidos, também se tornaram virais, causando receio em cidadãos norte-americanos de que seu país estivesse sob novos ataques terroristas.[5]

                        O uso de imagens e vídeos criados por IA pode ter, ainda, propósito comercial, destinando-se à ampliação das vendas de certos produtos ou serviços, como se viu no caso recente de um vídeo que exibia o ex-jogador de futebol Ronaldo Fenômeno promovendo um jogo de azar denominado Plinko. O vídeo era falso – a imagem do Fenômeno havia sido recriada por IA –, mas ainda assim permaneceu por meses no ar, ampliando as vendas do jogo, até que a Meta tomasse a decisão de promover a sua exclusão.[6]

                  E há casos ainda mais graves. Em dezembro de 2024, o X (antigo Twitter) passou a contar com sua própria ferramenta de IA: o Grok, que, além de responder às mais variadas perguntas e comentários em postagens dos usuários do X, conta com a capacidade de gerar imagens fictícias a partir de pessoas reais, sejam elas “pessoas públicas” ou não. Pouco tempo após sua integração ao sistema do X, o Grok começou a ser utilizado para fins bastante questionáveis, o que chegou ao ápice no início deste ano de 2026 quando inúmeros usuários decidiram criar e disseminar montagens sexualizadas e mesmo pornográficas envolvendo figuras públicas de todo o mundo, inclusive crianças.[7]

                  O cenário, que já é bastante assustador, tende a piorar. Pesquisas mostram, por exemplo, que conteúdos falsos criados por IA cresceram 308% entre 2024 e 2025 no Brasil.[8] Além disso, é cada vez mais elevado o nível de realismo alcançado pelas ferramentas de IA, o que impede, com frequência cada vez maior, que o espectador consiga discernir aquilo que é verdadeiro daquilo que é falso. Parece, portanto, evidente que devemos adotar, com máxima urgência, medidas destinadas a evitar que passemos a viver afundados em um movediço areal, no qual o real e o artificial se misturam indissociavelmente.

                  Não se trata obviamente de demonizar a IA – que tantos benefícios relevantes traz em tantas áreas da vida –, mas sim de reconhecer que seu uso pode se dar para fins ilegítimos e nocivos e que é preciso disciplinar a matéria com normas jurídicas que protejam, de modo mais eficiente, os seres humanos. E aqui, como em tantos desafios enfrentados pelo Direito contemporâneo, não há como deixar de olhar para o resto do mundo.

                  Um exemplo interessante nesta área tem sido a Coreia do Sul. O país é um dos pioneiros na regulação da Inteligência Artificial. A “Lei Básica sobre IA”, como é conhecida naquele país, foi aprovada em dezembro de 2024 e entrou em vigor em janeiro de 2026. A legislação determina expressamente que as empresas informem aos consumidores quando seus produtos ou serviços utilizarem sistemas de IA generativa. Além disso, a lei impõe o dever de identificar de forma clara conteúdos produzidos por essas tecnologias, sempre que estes não puderem ser facilmente diferenciados de conteúdos que retratam a realidade. A lei sul-coreana prevê multas de até 30 milhões de won (o que equivale a aproximadamente R$ 109 mil) para aqueles que violarem as suas determinações. O país, que é sede de gigantes da tecnologia como a Samsung, anunciou que pretende, com a nova lei, estabelecer “uma base segura e confiável para apoiar a inovação em IA”.[9] A China é outro país que também prevê a rotulagem obrigatória de materiais gerados por IA e da recomendação automatizada de conteúdo.[10]

O arcabouço jurídico brasileiro e a Resolução TSE 23.755/2026

            O Brasil não conta, ainda, com uma lei dedicada a disciplinar a IA de modo amplo. Há um Projeto de Lei apresentado ao Senado Federal (PL nº 2338/2023), mas que se encontra ainda em debate parlamentar. Ainda assim, seria um equívoco imaginar que há um vácuo normativo para o uso da IA no Brasil. Se alguém tem sua imagem e sua voz utilizada por uma ferramenta de IA para gerar, por exemplo, um vídeo publicitário de certo produto, como ocorreu com Ronaldo Fenômeno, o artigo 20 do Código Civil pode ser invocado tanto para fazer cessar imediatamente a divulgação do vídeo falso quanto para assegurar a devida reparação à pessoa cuja imagem ou voz foram ilicitamente exploradas.[11] Também a Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018) impede esse tipo de prática.

            Mas e quanto ao espectador do conteúdo falso? Há normas para protegê-lo? No campo eleitoral, o TSE acaba de aprovar, neste mês de março, a Resolução 23.755/2026, que altera a Resolução 23.610/2019, para inserir uma série de regras sobre o uso de IA nas eleições.[12] A nova norma do TSE proíbe, por exemplo, que sistemas de IA indiquem ou sugiram candidatos, mesmo que isso seja expressamente solicitado pelo usuário. Também é vedada a circulação de conteúdos gerados artificialmente no período entre as 72 horas anteriores e as 24 horas posteriores ao pleito eleitoral.[13]

            Atento à tendência observada internacionalmente, o TSE também impõe a rotulagem obrigatória de conteúdo produzido por IA, determinando que “a utilização na propaganda eleitoral, em qualquer modalidade, de conteúdo sintético multimídia gerado por meio de inteligência artificial ou tecnologia equivalente para criar, substituir, omitir, mesclar ou alterar a velocidade ou sobrepor imagens ou sons, impõe ao responsável pela propaganda o dever de informar, de modo explícito, destacado e acessível, que o conteúdo foi fabricado ou manipulado e qual tecnologia foi utilizada.” [14]

            O TSE especifica, ainda, a forma de rotulagem, que varia conforme a natureza do conteúdo; por exemplo, peças ou comunicações em áudio devem conter o alerta de que se trata de conteúdo gerado por IA logo ao início do áudio. O dever de rotulagem também se aplica a “chatbots, avatares e conteúdos sintéticos como artifício para intermediar a comunicação de campanha com pessoas naturais”, sendo vedada “qualquer simulação de interlocução com a pessoa candidata ou outra pessoa real”. A violação destas regras “impõe a imediata remoção do conteúdo ou indisponibilidade do serviço de comunicação, por iniciativa do provedor de aplicação ou por determinação judicial”, sem prejuízo de outras sanções.[15]

            A exemplo do que já fazia o artigo 36 do Código de Defesa do Consumidor, ao exigir que a publicidade seja veiculada de tal forma que o consumidor prontamente a identifique,[16] a rotulagem obrigatória de conteúdo gerado por IA imposta pelo TSE busca mitigar os riscos advindos de práticas potencialmente danosas sem proibi-las, mas impondo medidas que permitam aos seus destinatários ter plena ciência do que se trata. A partir daí, a avaliação da mensagem fica sujeita ao juízo crítico de cada eleitor, que saberá, contudo, que há ali uma intervenção da tecnologia.   

Rotulagem obrigatória como medida urgente para a democracia

            A proliferação descontrolada de vídeos e imagens falsas sobre a guerra no Oriente Médio e as chuvas em Minas Gerais são apenas alguns exemplos do impacto gigantesco que pode ser causado pela IA na desinformação – perigo que se mostra ainda mais relevante em um ano de eleições no Brasil, que prometem ter como pano de fundo as repercussões de um abrangente escândalo que tem chocado o país. A rotulagem obrigatória do conteúdo produzido por IA é uma medida importante e urgente para evitarmos a manipulação da sociedade em um momento tão relevante e sensível para a democracia brasileira.

Aprofunde seus estudos em Direito Civil Contemporâneo

Anderson Schreiber é uma das maiores referências do Direito Civil brasileiro e pioneiro na análise jurídica dos desafios trazidos pela tecnologia e pela inteligência artificial. O Manual de Direito Civil Contemporâneo, já em sua 9ª edição, aborda desde os fundamentos da teoria geral do Direito Civil até os desafios mais atuais envolvendo proteção da imagem, direitos da personalidade e responsabilidade civil na era digital.


[1] “AI-generated Iran images are widespread. How do we know what to believe?” (The Guardian, 13.3.2026).

[2] “Checagem de fatos: Vídeos de enxurradas são anteriores a temporais em MG e têm marcas de IA” (Reuters Fact Check, 27.2.2026).

[3] “AI-generated images of Pope Francis in puffer jacket fool the internet” (NBC News, 27.3.2023).

[4] “Deepfake Zelenskyy surrender video is the ‘first intentionally used’ in Ukraine war” (Euronews, 16.3.2022).

[5] “A tweet about a Pentagon explosion was fake. It still went viral” (Washington Post, 22.5.2023).

[6] “‘Suprema Corte’ da Meta recomenda exclusão de deepfake com Ronaldo e critica omissão em golpes com IA” (O Globo, 9.6.2025).

[7] Ver, entre outras, as reportagens intituladas “Três milhões de imagens sexualizadas foram geradas com Grok, diz investigação” (CNN Brasil, 23.1.2026); e “Grok, de Musk, é alvo de investigação da UE por imagens sexualizadas falsas geradas por IA” (O Globo, 26.1.2026).

[8] “Conteúdos falsos criados com IA mais que triplicam entre 2024 e 2025” (Agência Brasil, 5.2.2026).

[9] “Coreia do Sul é primeiro país a criar lei que regulamenta uso da inteligência artificial” (O Globo, 22.1.2026).

[10] “China Releases New Labeling Requirements for AI-Generated Content” (Inside Privacy, 18.3.2025).

[11] “Art. 20. Salvo se autorizadas, ou se necessárias à administração da justiça ou à manutenção da ordem pública, a divulgação de escritos, a transmissão da palavra, ou a publicação, a exposição ou a utilização da imagem de uma pessoa poderão ser proibidas, a seu requerimento e sem prejuízo da indenização que couber, se lhe atingirem a honra, a boa fama ou a respeitabilidade, ou se se destinarem a fins comerciais.”

[12] “TSE aumenta responsabilidade de candidatos e provedores sobre uso de IA nas eleições” (JOTA, 2.3.2026).

[13] A íntegra da Resolução TSE 23.610/2019, já com as alterações promovidas pela Resolução TSE 23.755/2026, pode ser acessada em: https://www.tse.jus.br/legislacao/compilada/res/2019/resolucao-no-23-610-de-18-de-dezembro-de-2019.

[14] Artigo 9º-B da Resolução TSE 23.610/2019, inserido pela Resolução TSE 23.732/2024 e modificado pela recente Resolução TSE 23.755/2026.

[15] Artigo 9º-B da Resolução TSE 23.610/2019, §§ 1º-4º.

[16] “Art. 36. A publicidade deve ser veiculada de tal forma que o consumidor, fácil e imediatamente, a identifique como tal. (…).”

Esperamos que você tenha compreendido a importância da rotulagem obrigatória de conteúdo gerado por inteligência artificial no combate a deepfakes e à desinformação. Confira também nossos artigos sobre:

Assine nossa Newsletter

Li e aceito a Política de privacidade

GENJURÍDICO

De maneira independente, os autores e colaboradores do GEN Jurídico, renomados juristas e doutrinadores nacionais, se posicionam diante de questões relevantes do cotidiano e universo jurídico.

Áreas de Interesse

ÁREAS DE INTERESSE

Administrativo

Agronegócio

Ambiental

Biodireito

Civil

Constitucional

Consumidor

Direito Comparado

Direito Digital

Direitos Humanos e Fundamentais

ECA

Eleitoral

Empreendedorismo Jurídico

Empresarial

Ética

Filosofia do Direito

Financeiro e Econômico

História do Direito

Imobiliário

Internacional

Mediação e Arbitragem

Notarial e Registral

Penal

Português Jurídico

Previdenciário

Processo Civil

Segurança e Saúde no Trabalho

Trabalho

Tributário

SAIBA MAIS

    SAIBA MAIS
  • Autores
  • Contato
  • Quem Somos
  • Regulamento Geral
    • SIGA