GENJURÍDICO
Reconhecimento facial a partir da utilização da inteligência artificial

32

Ínicio

>

Artigos

>

Direito Digital

ARTIGOS

DIREITO DIGITAL

Reconhecimento facial a partir da utilização da inteligência artificial

GIOVANA VIEIRA PORTO

LEI DE LIBERDADE ECONÔMICA - ANÁLISE CRÍTICA

GEN Jurídico

GEN Jurídico

13/11/2023

O reconhecimento facial não é um instrumento completamente novo, mas, na verdade, está em desenvolvimento, pelo menos, desde o período entre as décadas de 1960 e 1970. Inioluwa Deborah Raji e Genevieve Fried identificaram pelo menos quatro períodos de desenvolvimento do reconhecimento facial no mundo. O primeiro período teria durado entre 1964 e 1995, sendo identificado com período de pesquisas iniciais sobre o assunto (“Early Research Findings”). O segundo período seria verificado no período entre 1996, quando a base de dados Face Recognition Technology (“FERET”) foi criada, e 2006, sendo identificado como o período de visibilidade comercial do reco­nhecimento facial como “nova biometria”. O terceiro período, entre 2007 e 2013, teria se dado com o desenvolvimento da base de dados Labeled Faces in the Wild (“LFW”), com diversas imagens de plataformas online, como o Google Imagens, o YouTube e o Flickr, por exemplo. Por sua vez, o quarto período, de 2014 até o momento da submissão do artigo pelas autoras em 2021, teria sido marcado pelo desenvolvimento do DeepFace1.

No contexto do desenvolvimento de tecnologias associadas ao reconhecimento facial, autoridades relevantes já se pronunciaram contrariamente ao reconhecimento facial em locais públicos, principalmente, considerando efeitos deletérios associados, demonstrando que a inovação pode ser prejudicial à fruição de direitos. Nesse sentido, como mencionado acima, a AEDP e o CEPD ainda em 2021 propuseram o banimento da utilização de reconhecimento facial em locais públicos, no Parecer Conjunto 5/2021 do CEPD e da AEPD sobre a proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial2. As autoridades também indicaram em seu parecer que sistemas de inteligência artificial são relevantes para a evolução de tecnologias e para o modo como os indivíduos se relacionam com as tecnologias. No entanto, o desenvolvimento de sistemas de inteli­gência artificial estaria sujeito a riscos.

Especificamente, a AEDP e o CEPD indicaram seus entendimentos conjuntos no sentido de que o reconhecimento facial em locais públicos (ou “identificação bio­métrica à distância”) representa risco de intromissão na vida das pessoas. Ademais, pode configurar (a) desproporcionalidade ao se comparar a quantidade de dados privados tratados frente à identificação de quantidade limitada de pessoas; (b) falta de transparência; (c) obstáculo ao tratamento jurídico de questões relacionadas na União Europeia, por exemplo; (d) violação à liberdade de expressão, de reunião, de associação e de circulação; (e) obstáculo ao exercício de direitos fundamentais e liberdades, além de (f) violação a princípios de base da democracia3.

Nesse sentido, a AEDP e o CEPD recomendaram a proibição total de inteligência artificial para “o reconhecimento automatizado de características humanas em espaços acessíveis ao público”. As características elencadas pela AEDP e o CEPD como proi­bidas incluíam rosto, andar, impressão digital, voz, digitação, entre outros. Ademais, também recomendaram a proibição de inteligência artificial, por exemplo, por meio de reconhecimento facial, que categorize pessoais individuais em grupos com base em origem étnica, gênero, entre outros, tendo em vista a possibilidade de discriminação4

Como mencionado anteriormente, no Brasil, em março de 2021, o Governador do Estado de São Paulo vetou integralmente o Projeto de Lei 865/19 do Estado de São Paulo, que tratava da autorização de reconhecimento facial em todas as estações do metrô de São Paulo e na CPTM5. Especificamente, o Projeto de Lei previa a obrigatoriedade de que todas as estações do metrô de São Paulo e da CPTM tivessem câmeras de reconhecimento facial, inclusive no interior dos vagões.

Tal instalação de câmeras era fundamentada, segundo o art. 1º do Projeto de Lei, na segurança e para evitar riscos à vida ou à integridade das pessoas por ações de quadrilhas ou de criminosos individuais. Ademais, o art. 3º do Projeto de Lei indicava que o metrô de São Paulo e a CPTM realizariam parcerias com órgãos competentes de segurança pública (muito embora não indicasse quais) para localização de “criminosos foragidos” e elucidação de casos de assédio e abuso sexual contra passageiros.

Mais de vinte entidades, incluindo o Instituto Brasileiro de Defesa do Consumidor – IDEC, o Laboratório de Políticas Públicas e Internet – LAPIN e o Instituto Ethos de Empresas e Responsabilidade Social, por exemplo, subscreveram nota defendendo o veto integral ao Projeto de Lei 865/19, principalmente diante de quatro questões principais relacionadas a pontos negativos/prejudiciais do Projeto de Lei6. A primeira questão seria relacionada ao fato de que o Projeto de Lei não considerou as falhas existentes e conhecidas de tecnologias de reconhecimento facial, como a tendência a provocar discriminação, por exemplo. Ademais, violaria padrões internacionais de direitos humanos, notadamente, “recomendação de 2019 do Relator Especial da Organização das Nações Unidas (ONU) para Liberdade de Opinião e Expressão”, no sentido de que os países cessem a venda, a transferência ou o uso de tecnologias como de reconhecimento facial até que haja criação de marcos regulatórios.

A terceira questão tratava da violação a princípios de proteção de dados pessoais, como os presentes na Lei Geral de Proteção de Dados (Lei 13.709/2018), incluindo coleta e tratamento de dados pessoais. Por fim, foi indicado que o Projeto de Lei geraria insegurança jurídica, em razão de decisões judiciais no sentido contrário ao do Projeto de Lei, além de ineficiência do gasto público, considerando que ações judiciais envolvendo o Projeto de Lei, gerando, consequentemente, custas processuais e possibilidade de suspensão de editais de licitação, por exemplo.

Ainda em 2021, a Organização não Governamental Central Única das Favelas (“Cufa”) também anunciou o encerramento de utilização de reconhecimento facial para cadastro de pessoas beneficiárias de doações7, após críticas envolvendo segurança de dados de moradores de periferias e discriminação algorítmica8. Por sua vez, outra

instituição privada, a Rede de Observatórios da Segurança divulgou dados em 20219 de que, então com base na Portaria 793, de 24 de outubro de 2019, regulamentando incentivos financeiros ao combate à criminalidade violenta, custeados com recursos do Fundo Nacional de Segurança Pública – FNSP, incluindo ações voltadas à utilização de reconhecimento facial, a Rede identificou cerca de 80 propostas ou convênios de estados e municípios com o Ministério da Justiça e Segurança Pública com valor total superior a R$ 50.000.000,00. Também identificaram que pelo menos 20 estados já tiveram, têm ou possuem licitações em andamento envolvendo reconhecimento facial no âmbito de ações de segurança pública.

O uso de reconhecimento facial como ferramenta de segurança pública no Brasil foi objeto de estudo no Relatório “Retratos da Violência: Cinco meses de monitoramento, análises e descobertas” de junho a outubro de 2019 da Rede de Observatórios da Segurança10. Conforme o referido Relatório, no período de março a outubro de 2019, foram monitoradas 151 prisões nos estados da Bahia, do Rio de Janeiro, de Santa Catarina e da Paraíba. Foram identificadas prisões com base no reconhecimento facial em percentuais mensais variando de 0,6% a 31,2%. Em 42 casos com informações sobre raça e cor, foi identificado que 90,5% eram pessoas negras. Concluiu-se que o reconhecimento facial seria uma ferramenta para atualização do racismo na justiça criminal.

Ainda sobre reconhecimento facial, segurança pública e racismo, a Defensoria Pública do Rio de Janeiro (DPRJ) e o Colégio Nacional de Defensores Públicos Gerais (CONDEGE) elaboraram relatório em maio de 2021 envolvendo reconhecimento fo­tográfico em sede policial em 10 estados brasileiros11. Foi identificado que, dos casos com registro de raça e cor, 83% envolviam pessoas negras.

Como demonstrado acima, o desenvolvimento de inteligência artificial para fins de reconhecimento facial se mostrou nocivo ao longo do tempo, gerando manifestações públicas e privadas sobre seus riscos e sobre a necessidade de regulação envolvendo o tema no Brasil e na Europa, pelo menos.

Autora: Giovana Vieira Porto

Clique e conheça livro!


LEIA TAMBÉM


NOTAS

1 FRIED, Genevieve; RAJI, Inioluwa Deborah. About Face: A Survey of Facial Recognition Evalua­tion. AAAI 2020 Workshop on AI Evaluation. Disponível em: https://arxiv.org/abs/2102.00813

2 AEPD; CEPD. Parecer conjunto 5/2021 do CEPD e da AEPD sobre a proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial). 2021. Disponível em: https://edpb.europa.eu/system/files/2021-10/edpb-edps_joint_opinion_ai_regulation_pt.pdf.

3 AEPD; CEPD, op. cit., 2021, p. 12-14.

4 AEPD; CEPD, op. cit., 2021, p. 14.

5 ASSEMBLEIA LEGISLATIVA DO ESTADO DE SÃO PAULO. Projeto de Lei nº 865/2019. Disponível em: https://www.al.sp.gov.br/propositura/?id=1000278098.

6 ARTIGO19. Carta aberta sobre Projeto de Lei nº 865/19 do Estado de São Paulo. Disponível em: https://artigo19.org/wp-content/blogs.dir/24/files/2021/03/Carta-Aberta-sobre-o-Projeto-de-Lei-no-865_19-1.pdf.

7 G1. Por que a Cufa interrompeu o uso de reconhecimento facial após polêmica. 27 abr. 2021. Disponível em: https://g1.globo.com/economia/tecnologia/noticia/2021/04/27/por-que-a­-cufa-interrompeu-o-uso-de-reconhecimento-facial-apos-polemica.ghtml.

8 BRASIL DE FATO. Cufa fez cadastramento facial de pessoas em favelas; tecnologia pode promover racismo. 26 abr. 2021. Disponível em: https://www.brasildefato.com.br/2021/04/26/cufa-fez­-cadastramento-facial-de-pessoas-em-favelas-tecnologia-pode-promover-racismo.

9 REDE DE OBSERVATÓRIOS DA SEGURANÇA. Panóptico: reconhecimento facial renova velhas táticas racistas de encarceramento. 22 abr. 2021. Disponível em: http://observatoriosegu­ranca.com.br/panoptico-reconhecimento-facial-renova-velhas-taticas-racistas-de-encar­ceramento/.

10 REDE DE OBSERVATÓRIOS DA SEGURANÇA. Retratos da Violência: cinco meses de monitora­mento, análises e descobertas. Junho a outubro de 2019. Disponível em: http://observatorio­seguranca.com.br/wordpress/wp-content/uploads/2019/11/1relatoriorede.pdf.

11 DEFENSORIA PÚBLICA DO RIO DE JANEIRO. Relatório sobre reconhecimento fotográfico em sede policial. Maio de 2021. Disponível em: https://www.defensoria.rj.def.br/uploads/arquivos/54f8edabb6d0456698a068a65053420c.pdf .

Assine nossa Newsletter

Li e aceito a Política de privacidade

GENJURÍDICO

De maneira independente, os autores e colaboradores do GEN Jurídico, renomados juristas e doutrinadores nacionais, se posicionam diante de questões relevantes do cotidiano e universo jurídico.

Áreas de Interesse

ÁREAS DE INTERESSE

Administrativo

Agronegócio

Ambiental

Biodireito

Civil

Constitucional

Consumidor

Direito Comparado

Direito Digital

Direitos Humanos e Fundamentais

ECA

Eleitoral

Empreendedorismo Jurídico

Empresarial

Ética

Filosofia do Direito

Financeiro e Econômico

História do Direito

Imobiliário

Internacional

Mediação e Arbitragem

Notarial e Registral

Penal

Português Jurídico

Previdenciário

Processo Civil

Segurança e Saúde no Trabalho

Trabalho

Tributário

SAIBA MAIS

    SAIBA MAIS
  • Autores
  • Contato
  • Quem Somos
  • Regulamento Geral
    • SIGA