32
Ínicio
>
Artigos
>
Direito Digital
ARTIGOS
DIREITO DIGITAL
O papel e a responsabilidade das plataformas digitais pelo 8 de janeiro
Ana Frazão
08/08/2023
Não é novidade o poder político acumulado pelas plataformas digitais e o quanto tais entes, com suas ações e omissões, podem interferir no debate público e nas democracias em todos os seus aspectos, inclusive no que diz respeito ao resultado de eleições[1].
Oversight Board da Meta
Nesse sentido, a recente decisão do Oversight Board da Meta no caso “Discurso do general brasileiro”[2] confirma várias das preocupações relacionadas ao poder político das plataformas digitais, intensificando a discussão sobre o papel desses gatekeepers em relação a ataques à democracia.
Afinal, a decisão diz respeito à omissão da Meta em retirar conteúdos que, embora ilícitos e violadores das próprias políticas da plataforma, foram mantidos no ar e fomentaram o fatídico evento do dia 8 de janeiro deste ano. Diante da insuficiência dos controles internos da Meta, o conteúdo foi removido apenas duas semanas depois, após o 8 de janeiro e quando o Oversight Board já havia levado o caso à plataforma.
Com efeito, ao se deparar com o ocorrido, o Oversight Board da Meta fez mais do que anular a decisão original de manter, no Facebook, um vídeo no qual um general brasileiro convocava as pessoas a invadir o Congresso Nacional e o Supremo Tribunal Federal. Considerando que o problema não foi episódico mas sim estrutural, a decisão apontou igualmente diversas falhas e omissões que precisam ser resolvidas pela plataforma.
Para entender melhor o ocorrido, vale a pena destacar que não havia qualquer dúvida sobre os riscos e a necessidade de exclusão do referido vídeo. Afinal, de acordo com informações prestadas pela própria Meta, o vídeo em questão veiculava apelo para “sitiar” o Congresso brasileiro como “a última alternativa” diante da eleição de Lula. É nesse contexto que se apresenta fala de general pedindo que as pessoas saíssem às ruas e se dirigissem ao Congresso e ao Supremo, aparecendo em seguida imagens como a de um incêndio na Praça dos Três Poderes, em Brasília.
No mesmo dia em que o vídeo foi publicado, já houve denúncia de um usuário. Entre 3 e 4 de janeiro, houve mais denúncias, em processo que é assim descrito pela Meta:
“Após a primeira denúncia, um moderador humano analisou o conteúdo e concluiu que ele seguia as políticas da Meta. O usuário fez uma apelação da decisão, que foi mantida por um segundo moderador. No dia seguinte, cinco moderadores diferentes analisaram as outras seis denúncias, e todos consideraram que o conteúdo não violava as políticas da Meta”.
Ora, o vídeo, por si só, já veiculava conteúdo claramente proibido, ainda mais no contexto de polarização em que ocorreram as eleições brasileiras. Daí por que o Oversight Board justificadamente apontou suas preocupações quanto ao fato de que os moderadores de conteúdo não apenas consideraram o conteúdo como não violador das políticas da Meta – e assim o fizeram repetidamente – como não o encaminharam para uma análise mais cuidadosa.
Nas razões de decidir do Oversight Board, ficam claras as preocupações quanto à própria forma de agir desses moderadores:
(i) o vídeo teria sido analisado por sete moderadores que possuem a necessária expertise linguística e cultural para rever o conteúdo e mesmo assim não conseguiram identificar o problema;
(ii) a Meta não instrui tais revisores a registrar as razões pelas quais tomam suas decisões;
(iii) alguns fatores apontados pela própria Meta como causadores da situação sugerem que os moderadores não revisaram o conteúdo com cuidado nem o viram integralmente;
(iv) a Meta não teria oferecido nenhuma explicação das razões pelas quais o conteúdo não foi direcionado para uma análise posterior mais aprofundada, ainda mais em um país que havia sido considerado como de alto risco temporário;
(v) a Meta teria informado que os moderadores nem sempre conseguem assistir todos os vídeos integralmente, o que foi considerado inadequado pelo Board, pois, diante de situações de alto risco de violência, é esperado que tais moderadores vejam os vídeos em sua integralidade.
Como se pode observar, o caso mostra o quanto o sistema de moderação de conteúdos e gerenciamento de riscos da Meta era falho, ainda mais diante da situação complicadíssima em que vivia o Brasil. Mesmo em tais circunstâncias, não havia garantia de que os conteúdos extremistas postados seriam vistos integralmente e com o devido cuidado pelos moderadores, assim como as decisões destes não eram fundamentadas para posterior controle.
Aliás, no que diz respeito à transparência e ao controle, o Oversight Board também identificou outros problemas na instrução do caso, uma vez que, quando solicitaram à Meta informações sobre reivindicações relacionadas a eleições, a empresa explicou que não havia dados sobre isso.
Outro aspecto que preocupou o Oversight Board foi a ausência de métricas, pela Meta, para mensurar os seus esforços concernentes à preservação da chamada “integridade eleitoral”. Daí a conclusão do comitê no sentido de que tal circunstância impossibilitaria a devida accountability e o necessário controle social sobre os esforços da Meta:
“Portanto, o Comitê considera que a Meta deve desenvolver uma estrutura para avaliar os esforços de integridade eleitoral da empresa e para fazer divulgações públicas sobre o assunto. O objetivo da ação é permitir que a empresa reúna dados relevantes para aprimorar seu sistema de moderação de conteúdo como um todo e decidir a melhor forma de empregar seus recursos em contextos eleitorais. Sem esse tipo de informação, nem o Comitê nem o público podem avaliar a eficácia dos esforços de integridade eleitoral da Meta de forma mais ampla”.
Moderação de conteúdo
Diante do ocorrido, mais do que reverter uma decisão pontual dos moderadores, foram determinadas as seguintes medidas em face da Meta:
(i) desenvolvimento de estrutura para avaliar os esforços de integridade eleitoral, incluindo a criação e o compartilhamento de métricas para esforços de integridade eleitoral bem-sucedidos, como aqueles relacionados à aplicação das políticas de conteúdo da Meta e a abordagem aos anúncios; (ii) esclarecimento, na Central de Transparência, que, além do Protocolo de Política de Crise, a empresa trabalha com outros protocolos em sua tentativa de prevenir e enfrentar o risco potencial de danos que surgem em contextos eleitorais ou em outros eventos de alto risco.
Como se pode observar, a decisão do Oversight Board é bastante emblemática. Ao mesmo tempo em que indica a existência de um controle independente que pode apontar os equívocos da Meta, demonstra a falta de investimento e de cuidado com que é tratado o fluxo informacional em grandes plataformas, mesmo diante de (i) riscos excessivos e de situações de graves ataques à democracia e (ii) uma série de episódios anteriores bastante complicados envolvendo a participação da Meta em processos eleitorais de outros países.
A rigor, a decisão ora em comento é mais uma prova do quanto vozes extremistas isoladas ou aglutinadas, bem como a indústria da desinformação e da desordem informacional, as milícias digitais e tantas outras iniciativas encontram nas plataformas digitais um terreno ainda fértil e pouco controlado não apenas para a mentira e a desinformação como também para ataques à democracia.
É importante destacar que tal situação de desinformação e divulgação de conteúdos extremistas não é exclusiva da Meta, mas também já foi identificada em outras plataformas, como o Google[3], o YouTube[4] e o Twitter[5]. Logo, não seria exagero concluir que há efetivamente um problema da captura do ambiente informacional das grandes plataformas por discursos extremistas, notadamente da extrema direita[6].
Como exemplo, vale lembrar o estudo do NetLab da UFRJ[7], que identifica que o Google privilegia sistematicamente conteúdos da Jovem Pan, o que é particularmente significativo diante da natureza hiperpartidária do veículo e do desequilíbrio que isso causa em eleições democráticas, nos termos do seguinte ciclo de feedback loop:
“Ciclo de feedback loop – O favorecimento da Jovem Pan pelo sistema de recomendação do YouTube ocorre em dois níveis de mediação: (1) como primeiro vídeo sugerido na homepage e (2) na recomendação de vídeos relacionados ao primeiro clique. Isto é, quando se consome o conteúdo sugerido na primeira página do YouTube, o usuário é levado a mais vídeos da emissora mergulhando em um ciclo de retroalimentação auto-referenciado. Este fenômeno é chamado por Benkler et al. (2018) de “propaganda feedback loop” e seu impacto se intensifica especialmente quando se considera que 70% do que os usuários assistem é fornecido a eles por meio de recomendações”.
Dessa maneira, a decisão do Oversight Board da Meta, embora importante, não retrata nenhuma novidade nem um caso único. Retrata a triste situação em que se encontra nosso fluxo informacional como um todo, convidando-nos a pensar se esse tipo de problema pode ou deve ficar sujeito à boa vontade das plataformas ou se é mais uma razão a demonstrar a necessidade e a urgência de uma regulação sobre o assunto.
CLIQUE E CONHEÇA O LIVRO DE ANA FRAZÃO!
LEIA TAMBÉM
- O que são ‘dark patterns’?
- Aumento do salário mínimo traz efeitos econômicos positivos?
- Mais um passo em direção à regulação da inteligência artificial
NOTAS
[1] Ver FRAZÃO, Ana. A democracia corre perigo. Os algoritmos como armas de propaganda política. Jota.https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/eleicoes-e-algoritmo-a-democracia-corre-perigo-22092022; FRAZÃO, Ana. Autoritarismo no século XXI. O que alguns modelos de negócio têm a ver com isso? Jota.https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/democracia-crise-e-autoritarismo-no-seculo-xxi-29062022; FRAZÃO, Ana. Democracia à venda. A relação entre determinados modelos de negócios e a erosão da democracia e da própria esfera pública. Jota.https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/democracia-a-venda-08092021.
[2] https://www.oversightboard.com/news/6509720125757695-oversight-board-overturns-meta-s-original-decision-in-brazilian-general-s-speech-case/
[3]https://jornalggn.com.br/midia/google-favorece-sites-de-extrema-direita-contra-pl-das-fake-news/
[4]https://oglobo.globo.com/politica/eleicoes-2022/noticia/2022/09/youtube-privilegia-canais-alinhados-a-bolsonaro-em-recomendacao-de-videos-diz-pesquisa.ghtml
[5]https://www.nexojornal.com.br/extra/2021/10/22/Twitter-admite-que-seus-algoritmos-favorecem-a-direita
[6]https://diplomatique.org.br/google-facebook-e-a-extrema-direita/
[7] Netlab UFRJ. Recomendação no Youtube: o caso Jovem Pan. 5 de Setembro de 2022, Escola de Comunicação da Universidade Federal do Rio de Janeiro, Brasil. https://uploads.strikinglycdn.com/files/52912157-1deb-43e7-ad79-ca2d560bf5cc/Especial%20Elei%C3%A7%C3%B5es%202022%20-%20Recomenda%C3%A7%C3%A3o%20no%20Youtube,%20o%20caso%20Jovem%20Pan.pdf