GENJURÍDICO
A decisão do STF sobre o art. 19 do Marco Civil da Internet

32

Ínicio

>

Direito Digital

DIREITO DIGITAL

A decisão do STF sobre o Marco Civil da Internet – Parte 2

MARCO CIVIL DA INTERNET

MCI

STF

Ana Frazão

Ana Frazão

30/07/2025

Como deixei claro na coluna anterior, o Supremo Tribunal Federal (STF), diante da inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet, determinou a aplicação dos critérios de responsabilidade previstos no artigo 21 – deflagração da responsabilidade de forma independente de ordem judicial, sendo suficiente a notificação extrajudicial – como regra, salvo em hipóteses específicas, tais como matéria eleitoral, sujeita à regulamentação do TSE, e crimes contra a honra, que continuam sob o alcance do artigo 19, ou seja, continuam dependendo de ordem judicial para a remoção.

Não obstante, a decisão do STF traça um regime de responsabilidade que independe de notificação – mesmo a extrajudicial – em algumas hipóteses nas quais se pode presumir a responsabilidade das plataformas.

As primeiras hipóteses são as de conteúdos pagos ou inautênticos, nos termos do item 4 da tese, segundo o qual “fica estabelecida a presunção de responsabilidade dos provedores em caso de conteúdos ilícitos quando se tratar de (a) anúncios e impulsionamentos pagos; ou (b) rede artificial de distribuição (chatbot ou robôs). Nestas hipóteses, a responsabilização poderá se dar independentemente de notificação. Os provedores ficarão excluídos de responsabilidade se comprovarem que atuaram diligentemente e em tempo razoável para tornar indisponível o conteúdo”.

Como se pode observar, nesses dois casos, o que justifica a responsabilidade das plataformas independentemente de notificação é o dever de cuidado que lhes deve ser exigido por conteúdos pelos quais ela é remunerada diretamente (conteúdos pagos) e por conteúdos gerados de forma inautêntica, em relação aos quais nem mesmo se poderia cogitar de liberdade de expressão, uma vez que robôs não têm direitos.

Vale ressaltar que faz todo sentido que tais hipóteses mereçam um regime de responsabilidade mais rigoroso, mas que, ainda assim, continua sendo subjetivo, de forma que a plataforma pode se isentar mediante a comprovação de que exerceu adequadamente o seu dever de cuidado, que é uma obrigação de meio e não de fim.

A terceira hipótese de responsabilidade que independe de qualquer tipo de notificação é a circulação massiva de conteúdos ilícitos graves, os quais foram expressamente listados, para fins de segurança jurídica.

De fato, o item 5 da tese dispõe que “o provedor de aplicações de internet é responsável quando não promover a indisponibilização imediata de conteúdos que configurem as práticas de crimes graves previstas no seguinte rol taxativo:

  • (a) condutas e atos antidemocráticos que se amoldem aos tipos previstos nos artigos 296, parágrafo único, 359-L, 359- M, 359-N, 359-P e 359-R do Código Penal;
  • (b) crimes de terrorismo ou preparatórios de terrorismo, tipificados pela Lei 13.260/2016;
  • (c) crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação, nos termos do art. 122 do Código Penal;
  • (d) incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero (condutas homofóbicas e transfóbicas), passível de enquadramento nos arts. 20, 20- A, 20-B e 20-C da Lei 7.716, de 1989;
  • (e) crimes praticados contra a mulher em razão da condição do sexo feminino, inclusive conteúdos que propagam ódio ou aversão às mulheres (Lei 11.340/06; Lei 10.446/02; Lei 14.192/21; CP, art. 141, § 3º; art. 146- A; art. 147, § 1º; art. 147-A; e art. 147-B do CP);
  • (f) crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes, nos termos dos arts. 217-A, 218, 218-A, 218-B, 218-C, do Código Penal e dos arts. 240, 241-A, 241-C, 241-D do Estatuto da Criança e do Adolescente;
  • g) tráfico de pessoas (CP, art. 149-A)”.

Assim como se afirmou em relação a conteúdos pagos ou inautênticos, também faz todo o sentido que haja uma responsabilização diferenciada, e mais rigorosa, pela divulgação massiva de conteúdos graves, até porque tais circunstâncias são de mais fácil constatação pela plataforma.

Tanto a preocupação do STF é com a divulgação massiva que o item 5.4 esclarece que “a existência de conteúdo ilícito de forma isolada, atomizada, não é, por si só, suficiente para ensejar a aplicação da responsabilidade civil do presente item. Contudo, nesta hipótese, incidirá o regime de responsabilidade previsto no art. 21 do MCI”.

De toda sorte, mesmo em tais casos, o STF esclarece que se trata de responsabilidade subjetiva, afirmando o item 5.1 da tese que “a responsabilidade dos provedores de aplicações de internet prevista neste item diz respeito à configuração de falha sistêmica”. Já o item 5.2 explica o que é falha sistêmica:

“Considera-se falha sistêmica, imputável ao provedor de aplicações de internet, deixar de adotar adequadas medidas de prevenção ou remoção dos conteúdos ilícitos anteriormente listados, configurando violação ao dever de atuar de forma responsável, transparente e cautelosa”.

O que se espera, pois, das plataformas, é um investimento adequado na sua própria arquitetura, a fim de evitar que as redes se tornem espaços livres para a prática de crimes. Vale ressaltar que a lista de conteúdos graves oferecida pelo STF tem por base a experiência prática dos ilícitos mais usuais na internet, os quais se referem a regras legais específicas, a fim de facilitar a curadoria das plataformas, que, nesse caso, apenas respondem pela falha sistêmica.

Para delimitar melhor a extensão do dever de cuidado que se espera das plataformas, o item 5.3 deixa claro que “consideram-se adequadas as medidas que, conforme o estado da técnica, forneçam os níveis mais elevados de segurança para o tipo de atividade desempenhada pelo provedor”. Com isso, conclui-se que a tese do STF não tem por objetivo impor às plataformas um dever de cuidado impossível e inexequível, mas sim uma obrigação que seja viável e compatível com o seu modelo de negócios.

A fim de assegurar o contraditório e o devido processo legal, na hipótese de o responsável pelo conteúdo suprimido pretender a sua reinserção, o item 5.5 dispõe que “nas hipóteses previstas neste item, o responsável pela publicação do conteúdo removido pelo provedor de aplicações de internet poderá requerer judicialmente o seu restabelecimento, mediante demonstração da ausência de ilicitude. Ainda que o conteúdo seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor”.

Dessa maneira, observa-se que a tese fixada pelo STF envolve uma gradação da responsabilidade das plataformas em razão do tipo de conteúdo e de quem divulga. Ao assim fazer, o STF andou bem, procurando diferenciar conteúdos espontâneos ou orgânicos de conteúdos pagos ou inautênticos, conteúdos isolados de conteúdos divulgados massivamente, assim como conteúdos considerados muito graves.

Consequentemente, o regime de responsabilidade das plataformas ficou estruturado da seguinte maneira:

  1. em relação a conteúdos autênticos e divulgados de forma isolada, aplica-se a regra do artigo 21, do Marco Civil da internet, de forma que a responsabilidade das plataformas é deflagrada com a notificação extrajudicial;
  2. matérias eleitorais e crimes contra a honra continuam sujeitas ao artigo 19 do Marco Civil da Internet, de forma que a responsabilidade das plataformas é deflagrada de acordo com os critérios fixados pelo TSE, no primeiro caso, e mediante ordem judicial, no segundo caso;
  3. em relação a conteúdos pagos, conteúdos inautênticos e conteúdos graves divulgados massivamente, há presunção de responsabilidade das plataformas, que pode ser por elas afastadas mediante a comprovação de que exerceram adequadamente o devido dever de cuidado nesses casos.

Diante das dificuldades inerentes ao tema, o Supremo Tribunal Federal deu uma decisão ponderada, atenta às especificidades de cada tipo de conteúdo e sempre deixando claro que, em qualquer caso, “não haverá responsabilidade objetiva na aplicação da tese aqui enunciada” (item 12, da tese). Além disso, procurou deixar claros os deveres adicionais que se esperam das plataformas, dentre os quais os de transparência, disponibilização de canais de atendimento, publicidade das regras de moderação de conteúdos e representação adequada[1].

Dentro do possível, a tese fixada também procurou observar a segurança jurídica, oferecendo parâmetros consistentes para orientar a ação das plataformas e ressaltando que a referida decisão apenas se aplica para o futuro, nos termos do item 14.

Sobre as acusações de ativismo, é importante destacar que várias das conclusões a que chegou o STF não são propriamente inovações no mundo jurídico, mas tão somente decorrentes da interpretação finalística e sistemática do artigo 19 do Marco Civil da Internet – tanto em face da Constituição Federal, como também em face de outras legislações que incidem sobre o assunto, como é o caso do Código de Defesa do Consumidor, dentre outras – pois há boas razões para se entender que o alcance do artigo 19 sempre foi limitado a conteúdos isolados de pessoas naturais em relação aos quais a plataforma é neutra.

Por essa razão, a tese fixada pelo STF decorre, em grande parte, do exercício legítimo da sua competência para interpretar regras legais, a fim de verificar as alternativas compatíveis com a Constituição. No caso, era muito claro que várias das hipóteses disciplinadas pelo STF – notadamente conteúdos pagos, inautênticos ou divulgados em massa – nem mesmo poderiam estar sujeitas ao artigo 19, do Marco Civil da Internet, assim como não poderiam estar sujeitos à incidência do dispositivo todos os conteúdos em relação aos quais as plataformas, longe de serem neutras, assumem o papel de gestoras informacionais, caso em que respondem por fato próprio.

De toda sorte, ainda houve o reconhecimento, pelo STF, de que a matéria precisa ser examinada pelo legislador, por meio de verdadeiro apelo: “Apela-se ao Congresso Nacional para que seja elaborada legislação capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais.”(item 13 da tese).

Não se quer, com isso, dizer que a tese fixada não contenha problemas nem se quer menosprezar os riscos e dificuldades da sua aplicação na prática, notadamente os de overblocking. O que se quer dizer é que, diante dos riscos já identificados e da omissão do Congresso em legislar sobre o tema, o STF proferiu uma decisão coerente e que, dentro do possível, já procura contornar esses futuros problemas, na medida em que apresenta critérios objetivos e coerentes para a moderação de conteúdos.

Fonte: Jota

CONHEÇA O LIVRO DE ANA FRAZÃO

Lei de Liberdade Econômica - Análise Crítica: conheça o lançamento

LEIA TAMBÉM


NOTAS

[1] A necessidade de autorregulação que promova transparência está prevista no item 8 da tese: “Os provedores de aplicações de internet deverão editar autorregulação que abranja, necessariamente, sistema de notificações, devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos”. Já o item 9 diz respeito à disponibilização de canais acessíveis de atendimento: “Deverão, igualmente, disponibilizar a usuários e a não usuários canais específicos de atendimento, preferencialmente eletrônicos, que sejam acessíveis e amplamente divulgados nas respectivas plataformas de maneira permanente.”(item 9 da tese). O item 10 trata da publicidade das regras: “Tais regras deverão ser publicadas e revisadas periodicamente, de forma transparente e acessível ao público.” Por fim, o item 11 trata da representação adequada das plataformas para efeitos de tornar efetivo o regime de responsabilidade: “Os provedores de aplicações de internet com atuação no Brasil devem constituir e manter sede e representante no país, cuja identificação e informações para contato deverão ser disponibilizadas e estar facilmente acessíveis nos respectivos sítios. Essa representação deve conferir ao representante, necessariamente pessoa jurídica com sede no país, plenos poderes para (a) responder perante as esferas administrativa e judicial; (b) prestar às autoridades competentes informações relativas ao funcionamento do provedor, às regras e aos procedimentos utilizados para moderação de conteúdo e para gestão das reclamações pelos sistemas internos; aos relatórios de transparência, monitoramento e gestão dos riscos sistêmicos; às regras para o perfilamento de usuários (quando for o caso), a veiculação de publicidade e o impulsionamento remunerado de conteúdos; (c) cumprir as determinações judiciais; e (d) responder e cumprir eventuais penalizações, multas e afetações financeiras em que o representado incorrer, especialmente por descumprimento de obrigações legais e judiciais”.

Assine nossa Newsletter

Li e aceito a Política de privacidade

GENJURÍDICO

De maneira independente, os autores e colaboradores do GEN Jurídico, renomados juristas e doutrinadores nacionais, se posicionam diante de questões relevantes do cotidiano e universo jurídico.

Áreas de Interesse

ÁREAS DE INTERESSE

Administrativo

Agronegócio

Ambiental

Biodireito

Civil

Constitucional

Consumidor

Direito Comparado

Direito Digital

Direitos Humanos e Fundamentais

ECA

Eleitoral

Empreendedorismo Jurídico

Empresarial

Ética

Filosofia do Direito

Financeiro e Econômico

História do Direito

Imobiliário

Internacional

Mediação e Arbitragem

Notarial e Registral

Penal

Português Jurídico

Previdenciário

Processo Civil

Segurança e Saúde no Trabalho

Trabalho

Tributário

SAIBA MAIS

    SAIBA MAIS
  • Autores
  • Contato
  • Quem Somos
  • Regulamento Geral
    • SIGA