
32
Ínicio
>
Artigos
>
Constitucional
>
Direito Digital
ARTIGOS
CONSTITUCIONAL
DIREITO DIGITAL
O STF e a inconstitucionalidade parcial e progressiva do artigo 19 do Marco Civil da Internet

Ingo Wolfgang Sarlet
18/09/2025
No último dia 26 de junho , o Supremo Tribunal Federal (doravante STF) deu mais um passo em direção à regulação das plataformas digitais no Brasil, ao julgar os RE 1.037.396 (Tema 987) e 1.057.258 (Tema 533), relatoria dos ministros Dias Toffoli e Luiz Fux, respectivamente. Por maioria de 8 a 3 ministros, o artigo 19 do Marco Civil da Internet (doravante MCI) foi considerado parcial e progressivamente inconstitucional. A decisão do STF vai além do que dispõe o artigo 19 do MCI e lança uma compreensão mais ampla, incorporando deveres de cuidado e diferentes parâmetros de responsabilidade civil, não apenas quanto a conteúdos gerados por seus usuários, mas também quanto a ações/omissões dos próprios provedores.
Apesar da polêmica que segue vicejando em relação ao julgamento, a decisão do STF acertadamente lança holofotes no vácuo normativo da legislação, que requer adaptações aos desafios inerentes aos avanços tecnológicos ocorridos nos últimos anos que colocam em xeque a liberdade de expressão, como o discurso de ódio e a desinformação em larga escala, bem como a moderação de conteúdo automatizada. Ao tomar a frente na regulamentação da questão, o STF deixou claro que a intervenção judicial (embora excepcional!) era necessária devido à inércia do Congresso em regular a responsabilidade civil dos provedores de plataformas de maneira precisa e adequada.
Alcance da tese de repercussão geral
No cenário brasileiro, o uso massificado das redes sociais revela a importância de uma regulação adequada para proteger direitos fundamentais em ambientes digitais. No Brasil, de acordo com um relatório publicado em janeiro de 2024 pela Data Reportal, existem 187,9 milhões de usuários de redes sociais, representando 86,6% da população brasileira. Contudo, a tese de repercussão geral firmada pelo STF, que incide predominantemente sobre as redes sociais, não se aplica apenas a essas, mas também a uma vasta gama de plataformas digitais que disponibilizam serviços que envolvem conteúdos produzidos pelos seus usuários — a exemplo de portais de avaliação com sessão de comentários de usuários (como o TripAdvisor), enciclopédias colaborativas (como a Wikipédia), fóruns (como o Reddit), e sites colaborativos de receitas culinárias, apenas para mencionar alguns —, de modo que o alcance da tese ultrapassa em muito o âmbito das redes sociais.
Aliás, embora o artigo 19 do MCI tenha por escopo a regulação da responsabilidade dos provedores em relação ao conteúdo gerado por seus usuários, a tese de repercussão geral estabelecida pelo STF vai além disso e abrange atos e omissões dos próprios provedores. Note-se que a tese firmada alcança chatbots — compreendidos como conteúdos gerados pelas próprias plataformas — e, em razão disso, se aplica também às plataformas que promovam tecnologias de propósito geral (como ChatGPT, Gemini e Copilot), além de demais serviços que promovam serviços de chatbot em suas plataformas (item 4 tese de repercussão geral). Em vista disso, observam-se os primeiros indícios de um posicionamento da Corte em relação à regulação da inteligência artificial.
Desde a entrada em vigor do MCI (abril de 2014) até a fixação da tese pelo STF (junho de 2025), pela regra geral, a responsabilidade dos provedores de plataformas era estabelecida somente após o descumprimento de uma decisão judicial (artigo 19 do MCI). Excepcionalmente, os provedores de plataformas poderiam ser responsabilizados após a denúncia de usuários em casos de divulgação não consensual de imagens íntimas (artigo 21 do MCI).
O artigo 19 do Marco Civil da Internet após o STF
Após o julgamento pelo STF, a interpretação adotada pela Corte aponta para a aplicação da abordagem notice and take down à responsabilidade dos provedores de plataforma, anteriormente aplicada apenas pela legislação brasileira para conteúdos relacionados à distribuição não consensual de imagens íntimas no artigo 21 do MCI.
Os provedores devem demonstrar que agiram com diligência e em um prazo razoável contra conteúdos ilegais e não autorizados. O artig 19 do MCI continua em vigor se o conteúdo estiver relacionado a crimes contra a honra (calúnia, difamação e injúria), ou seja, a responsabilidade das plataformas continuará a depender de uma ordem judicial, conforme já estabelecido pela antes da decisão do STF, mas o conteúdo compartilhado ainda pode ser removido pelas regras internas da plataforma ou por notificação do usuário.
Logo, a decisão do STF declarou a inconstitucionalidade “parcial e progressiva” da norma, preservando sua aplicação aos crimes contra a honra, determinando também que a tese de repercussão geral se aplica a partir de 26 de junho de 2025 até o momento da edição de legislação sobre a matéria pelo Congresso.
Crimes contra a honra e combate às fake news
Embora proferida no âmbito do direito civil, a decisão produz relevantes repercussões no direito penal, especialmente por manter efeitos normativos do artig 19 sobre os crimes contra honra (calúnia, injúria e difamação). Assim, nesses casos, para que ocorra a responsabilidade civil dos provedores, exige-se que o provedor desobedeça a uma ordem judicial específica de remoção do conteúdo.
Tal circunscrição dos efeitos do julgamento sobre os crimes contra honra atinge novo patamar de interesse na medida em que se percebe que conteúdos desinformativos (as popularmente conhecidas fake news!) podem ter seu enquadramento jurídico como crimes contra a honra, o que impacta, em maior ou menor grau, o modo de combate a conteúdos desinformativos no âmbito digital.
Nos termos da decisão da Corte, ainda que, para fins de responsabilidade civil, a remoção de conteúdo relativa a crimes contra a honra dependa do descumprimento de ordem judicial específica, nada impede que as plataformas procedam à exclusão prévia com base em suas regras internas. Essa prerrogativa (já aplicada antes mesmo do julgamento do STF!), permite a aplicação de modelos autorregulatórios que viabilizem a retirada de circulação de conteúdos de maneira rápida e eficaz.
Essa possibilidade de remoção extrajudicial é especialmente relevante no enfrentamento da desinformação, especialmente ao projetarmos a tese firmada pelo STF sobre o cenário eleitoral de 2026, que será marcado por novos desafios, como as deepfakes e outras formas sofisticadas de manipulação/fabricação de conteúdos falsos.
Deveres de cuidado e efeitos para além do art. 19 e conteúdos publicados por usuários
A tese de repercussão geral surpreende, pois é bastante extensa em comparação com o que o Art. 19 do MCI pretendeu regular desde a sua entrada em vigor em 2014. Sendo inviável explorar todos os pontos constantes da tese, alguns aspectos merecem especial atenção.
A decisão propôs a adoção de deveres de cuidado pelos provedores de plataformas digitais diante da identificação de risco sistêmico, especialmente no que diz respeito à circulação massiva de conteúdos ilícitos graves, enumerados no item 5 da tese de repercussão geral [1] — o que aproxima o julgado do conteúdo da Lei alemã de Aplicação nas Redes (NetzDG), integralmente em vigor entre 2018 e 2024, na medida em que a legislação alemã elencava artigos do Código Penal para que houvesse atuação proativa dos provedores na remoção de conteúdos ilegais.
Assim, considera-se configurada falha sistêmica quando o provedor deixa de adotar medidas adequadas de prevenção ou remoção com base em rol taxativo fornecido pela tese fixada. Embora se preveja que a mera existência isolada de conteúdo ilícito não enseje essa responsabilização, a previsão amplia significativamente o dever de diligência das plataformas em contextos de crise ou de veiculação massiva desses conteúdos, o que obviamente passa ao largo de conteúdos gerados por usuários, que se considera como o real âmbito de alcance do artigo 19 do MCI.
Para além disso, destaca-se que a responsabilidade é presumida em caso de anúncios e impulsionamentos pagos ou de rede artificial de distribuição (chatbot ou robôs), o que, contudo, gera aparente tensão interna com o item 8 da própria tese, que define que a responsabilização, nos termos da tese fixada, é subjetiva, exigindo a análise de culpa ou dolo da plataforma — premissa esta que não se harmoniza com a adoção de presunções de responsabilidade.
Propôs-se também a adoção de deveres adicionais, como a implementação de canais de reclamação e denúncia, a publicação de regras internas e de relatórios de transparência, bem como a exigência de que os provedores indiquem um representante legal no Brasil. Essa última medida é reflexo do embate travado com o Telegram, que, até 2023, não possuía representação formal no país, situação que gerou dificuldades práticas para o cumprimento de ordens judiciais.
Mensageria instantânea e a “zona cinzenta” regulatória
Outro ponto que merece destaque diz respeito às plataformas digitais de mensageria instantânea. Nos termos da tese de repercussão geral, serviços de e-mail (por exemplo, Gmail), serviços de mensagens instantâneas (por exemplo, WhatsApp) e plataformas de reuniões fechadas (por exemplo, Zoom) são considerados “provedores neutros”, ou seja, o STF considera que esses provedores não interferem no conteúdo, desde que se trate de comunicações interpessoais, de modo que o artigo 19 do MCI é aplicável integralmente em casos de conteúdos produzidos por usuários nessas plataformas (item 5 da tese de repercussão geral).
No momento da finalização deste texto, os votos completos dos Ministros ainda não haviam sido divulgados publicamente. No entanto, com base no resumo do julgamento (informação à sociedade) e na tese de repercussão geral já publicados, é possível perceber que, embora a tese tenha amplo alcance normativo, os grupos de mensagens instantâneas foram deliberadamente excluídos do seu escopo.
Com isso, permanecem em uma “zona cinzenta” regulatória, sobretudo quando se trata de grupos com centenas de participantes — situação que coloca em discussão o real caráter “interpessoal” das interações realizadas nesse ambiente. Essa lacuna regulatória persistente ressalta a necessidade de uma ação legislativa direcionada pelo Congresso Nacional sobre o tema, especialmente porque o uso de plataformas de mensageria privada é largamente difundido no Brasil e o seu mau uso já foi identificado como um vetor de disseminação de desinformação, especialmente em períodos eleitorais.
De qualquer sorte, dada a grande diversidade de situações concretas que surgem diuturnamente, é de se esperar que sobrevenham ajustes finos inclusive por parte do próprio STF, sem prejuízo da tão esperada (quem sabe, agora estimulada) resposta oriunda do Congresso, mediante amplo debate que envolva todos os segmentos da sociedade e que não seja marcada pela polarização e por extremismos de toda ordem.
A amplitude da tese aprovada pelo STF destaca não apenas a centralidade da questão no estágio atual do constitucionalismo digital, mas também a urgência de uma ação legislativa que consolide os parâmetros de uma regulamentação adequada das plataformas no Brasil, em sinergia com a posição preferencial da liberdade de expressão.
Sobre os autores
- Ingo Wolfgang Sarlet é advogado e professor titular da PUC-RS.
- Andressa de Bittencourt Siqueira é advogada e doutora em Direito pela PUC-RS.

- Execução penal, falta grave e proporcionalidade: por uma melhor equação
- O STF e a proteção dos dados pessoais
_____________________________________________________
[1] Dever de cuidado em caso de circulação massiva de conteúdos ilícitos graves
- O provedor de aplicações de internet é responsável quando não promover a indisponibilização imediata de conteúdos que configurem as práticas de crimes graves previstas no seguinte rol taxativo:
(a) condutas e atos antidemocráticos que se amoldem aos tipos previstos nos artigos 286, parágrafo único, 359-L, 359- M, 359-N, 359-P e 359-R do Código Penal;
(b) crimes de terrorismo ou preparatórios de terrorismo, tipificados pela Lei nº 13.260/2016;
(c) crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação, nos termos do art. 122 do Código Penal;
(d) incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero (condutas homofóbicas e transfóbicas), passível de enquadramento nos arts. 20, 20-A, 20-B e 20-C da Lei nº 7.716, de 1989; (e) crimes praticados contra a mulher em razão da condição do sexo feminino, inclusive conteúdos que propagam ódio às mulheres (Lei nº 11.340/06; Lei nº 10.446/02; Lei nº 14.192/21; CP, art. 141, § 3º; art. 146-A; art. 147, § 1º; art. 147-A; e art. 147-B do CP);
(f) crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes, nos termos dos arts. 217-A, 218, 218-A, 218-B, 218-C, do Código Penal e dos arts. 240, 241-A, 241 C, 241-D do Estatuto da Criança e do Adolescente; g) tráfico de pessoas (CP, art. 149-A).
5.1. A responsabilidade dos provedores de aplicações de internet prevista neste item diz respeito à configuração de falha sistêmica.
5.2. Considera-se falha sistêmica, imputável ao provedor de aplicações de internet, deixar de adotar adequadas medidas de prevenção ou remoção dos conteúdos ilícitos anteriormente listados, configurando violação ao dever de atuar de forma responsável, transparente e cautelosa.
5.3. Consideram-se adequadas as medidas que, conforme o estado da técnica, forneçam os níveis mais elevados de segurança para o tipo de atividade desempenhada pelo provedor.
5.4. A existência de conteúdo ilícito de forma isolada, atomizada, não é, por si só, suficiente para ensejar a aplicação da responsabilidade civil do presente item. Contudo, nesta hipótese, incidirá o regime de responsabilidade previsto no art. 21 do MCI.
5.5. Nas hipóteses previstas neste item, o responsável pela publicação do conteúdo removido pelo provedor de aplicações de internet poderá requerer judicialmente o seu restabelecimento, mediante demonstração da ausência de ilicitude. Ainda que o conteúdo seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor.