32
Ínicio
>
Artigos
>
Civil
>
Direito Digital
ARTIGOS
CIVIL
DIREITO DIGITAL
Desafios Da Inteligência Artificial No Anteprojeto De Código Civil Brasileiro
William Paiva Marques Júnior
10/12/2024
Com a Inteligência Artificial (IA) generativa, a qual utiliza modelos de fundação para criar novos conteúdos, tal como o Chat GPT, verifica-se um alcance de um público mais amplo que revolucionou a forma de pensar contemporânea. É gerado um excesso de informações, muitas vezes replicadas sem rigor ético, tampouco jurídico.
Para Ludwig Huber1, o excesso de informação substitui a nossa certeza cognitiva por bolhas discursivas que corroem as bases da discussão política, então, o termo pós-verdade descreve uma situação que não é caracterizada apenas por mentiras e falsas crenças, mas também, talvez até especialmente, pela confusão causada pelo excesso de informação.
A IA pode ser utilizada como ferramenta de proteção e prevenção de acidentes cibernéticos, vez que os algoritmos de IA podem analisar grandes volumes de dados em tempo real, identificando padrões suspeitos e detectando atividades maliciosas com maior precisão e rapidez do que nunca. Isso permite que as organizações identifiquem e respondam a ameaças cibernéticas de forma proativa, reduzindo o risco de violações de dados e ataques cibernéticos. Além disso, a IA pode ser utilizada para desenvolver sistemas de segurança mais sofisticados e adaptáveis.
Outra vantagem é a redução no tempo da contenção de vazamento de dados quando se utiliza a IA
Desafios da IA
Por outro lado, as novas tecnologias, especialmente a utilização de IA, criam desafios até então inéditos, como por exemplo, a desinformação, os vieses cognitivos no direcionamento de notícias e a discriminação (incluindo a algorítmica), problemas na propriedade intelectual, segurança cibernética e proteção são elementos da IA generalizada. Portanto, a inteligência artificial (IA) pode ser uma ferramenta para detectar e reduzir a desinformação, também conhecida como fake news. No entanto, a IA também pode ser usada para disseminar desinformação, como na criação de imagens falsas, os deepfakes.
Sobre a propagação de fake News e deepfakes, diagnostica Giuliano Da Empoli2 sobre seus efeitos deletérios para as sociedades contemporâneas: “Mas já ficou evidente que um dos efeitos da propagação de redes sociais foi o de aumentar estruturalmente o nível de cólera já presente na nossa sociedade.”
Alucinações da IA são outro aspecto negativo, por exemplo, uso de jurisprudência falsa em sentença feita por IA. A “alucinação”, é a qualificação atribuída às informações fornecidas pelo sistema de IA que, embora escritas de forma coerente, apresentam dados incorretos, tendenciosos ou completamente errôneos. Como a internet está repleta de informações falsas, a tecnologia aprende a repetir as mesmas falsidades, incoerências e incorreções, e, por vezes, os chatbots inventam dados, informações e outros elementos cruciais à veracidade das informações.
Essa complexa realidade também pode alimentar os extremismos, que impactam negativamente a democracia. Para Giuliano Da Empoli3, na verdade, isso acontece muito. Mas o ponto essencial continua a ser que os extremistas se tornaram, em todos os sentidos e em todos os níveis, o centro do sistema. São eles que dão o tom da discussão. Se, no passado, o jogo político consistia em divulgar uma mensagem que unificava, hoje se trata de desunir da maneira mais explosiva. Para conquistas uma maioria, não se deve mais convergir para o centro, mas adicionar os extremos.
Como exemplo de alucinação de IA, o CNJ (Conselho Nacional de Justiça) vai investigar uma sentença assinada por um juiz federal da 1ª Região que foi, na verdade, feita por inteligência artificial, a partir do uso do ChatGPT. O caso poderia ter passado despercebido não fosse o fato de a inteligência artificial ter inventado, para fundamentar a decisão, uma jurisprudência do Superior Tribunal de Justiça (STJ) que não existe. Por causa disso, o advogado vencido percebeu a fraude e acionou a Corregedoria Regional de Justiça Federal da 1ª Região4.
O Brasil é o segundo país que mais usa a internet por dia, de acordo com um ranking do Proxyrack, perde apenas para África do Sul. O site utilizou os dados do DataReportal, Numbeo e World Population Review para listar o uso diário de internet, os países mais conectados, o melhor acesso à internet e o capital de mídia social de 45 países5.
Conquanto o Brasil seja um país extremamente conectado, não há educação de inserção nesse processo, ou seja, não há letramento digital. O letramento digital é uma abordagem abrangente que ultrapassa o mero domínio técnico das ferramentas digitais. O instituto representa a capacidade de compreender, analisar de forma crítica e propositiva, bem como de comunicar-se efetivamente e aplicar habilidades digitais em diversos contextos. Enquanto a alfabetização digital se concentra nas habilidades básicas para operar dispositivos e software, o letramento digital incorpora uma compreensão mais profunda das implicações sociais, éticas e cognitivas do uso da tecnologia. Em sua essência, o letramento digital envolve a habilidade de interpretar e produzir informações digitalmente, discernindo entre fontes confiáveis e não-confiáveis. Isso inclui a capacidade de avaliar criticamente a vastidão dos conteúdos online, na compreensão de questões de privacidade e segurança, e participação de maneira ética em ambientes digitais, incluindo a utilização de polidez linguística na comunicação. Ao contrário da mera familiaridade com ferramentas, o letramento digital destaca-se pela aplicação reflexiva dessas habilidades em situações do mundo real, no estabelecimento de uma relação condicionante, complementar e simbiôntica. Caso utilizado adequadamente, o letramento digital colabora eficazmente em ambientes virtuais, como reflexo da crescente importância da colaboração online em diversas esferas da vida. Sem o atendimento dessas condicionantes de letramento digital, a IA funciona de modo negativo.
Regulação da IA
A regulação da IA apresenta-se como ferramenta de redução do risco cibernético, especialmente no combate à desinformação, insegurança e desigualdade cibernética, ou seja, regular traz benefícios, uma vez que a regulação serve como ferramenta de redução dos expressivos riscos cibernéticos.
Conquanto ainda não haja lei específica, o Decreto Executivo nº. 11.856, de 26 de dezembro de 2023, o qual institui a Política Nacional de Cibersegurança e o Comitê Nacional de Cibersegurança, com a finalidade de orientar a atividade de segurança cibernética no País. O art. 2º da aludida normatização6, estabelece os princípios diretivos da Política Nacional de Cibersegurança.
Para garantir o uso da tecnologia de IA com ética, transparência e governança, o Conselho Nacional de Justiça (CNJ) publicou, a Resolução nº. 332/2020, que trata sobre “a ética, a transparência e a governança na produção e no uso de Inteligência Artificial no Poder Judiciário”. A norma estabelece diretrizes para o desenvolvimento e uso da inteligência artificial, para contribuir com agilidade e coerência no processo de tomada de decisão nos órgãos judiciais. Nessa ordem de ideias, o art. 5º da norma em comento, estabelece que: “Art. 5º A utilização de modelos de Inteligência Artificial deve buscar garantir a segurança jurídica e colaborar para que o Poder Judiciário respeite a igualdade de tratamento aos casos absolutamente iguais.”
Por seu turno, o Projeto de Lei (PL) nº. 2338/2023, de autoria do Senador Rodrigo Pacheco (PSD/MG), ora em trâmite no Congresso Nacional, busca estabelecer um marco regulatório específico para o desenvolvimento e uso da inteligência artificial no Brasil. Ele pretende criar diretrizes e normas para promover o uso ético, seguro e transparente da IA, visando a proteção dos direitos fundamentais e a inovação tecnológica.
Uma das inovações mais significativas do Anteprojeto de Código Civil Brasileiro é a inclusão de dispositivos específicos sobre inteligência artificial, representando um avanço necessário para a regulação de tecnologias emergentes que impactam profundamente a sociedade contemporânea.
Neste jaez, dispõe o art. 609-F do Anteprojeto de Código Civil: “Art. 609-F. A utilização de inteligência artificial na prestação do serviço digital deve ser identificada de forma clara e seguir os padrões éticos necessários, segundo os princípios da boa-fé e da função social do contrato.”, ou seja, vincula-se a utilização da IA aos paradigmas hermenêuticos informativos do CCB/2002 da eticidade (boa-fé objetiva) e da função social. Portanto, a transparência na inteligência artificial é fundamental para garantir que as decisões tomadas pelos algoritmos sejam compreensíveis, justas e éticas. A falta de transparência pode levar a consequências prejudiciais, como discriminação, exclusão social e desigualdade. O uso de IA não pode violar a dignidade humana, os direitos fundamentais e os direitos da personalidade, sob pena de responsabilização civil.
Propõe ainda o Anteprojeto de CCB, a necessidade de que o uso da IA deve: (1) respeitar os direitos de personalidade previstos na legislação civil, garantindo a implementação de sistemas seguros e confiáveis, em benefício da pessoa natural ou jurídica e do desenvolvimento científico e tecnológico: (2) a criação de imagens de pessoas vivas ou falecidas, por meio de inteligência artificial, para utilização em atividades lícitas; (3) pessoas naturais que interagirem, por meio de interfaces, com sistemas de inteligência artificial, incorporados ou não em equipamentos, ou que sofrerem danos decorrentes da operação desses sistemas ou equipamentos, têm o direito à informação sobre suas interações com tais sistemas, bem como sobre o modelo geral de funcionamento e critérios para decisão automatizada, quando esta influenciar diretamente no seu acesso ou no exercício de direitos, ou afetar seus interesses econômicos de modo significativo.
As transformações buscadas pelo Anteprojeto de Código Civil, amoldam-se ao teor do Art. 20 da LGPD7 em uma interface hermenêutica que busca a transparência e a responsabilidade no tratamento dos dados pessoais, evitando que decisões sejam tomadas de forma arbitrária ou discriminatória.
Portanto, o Anteprojeto de Código Civil estipula diretrizes para o desenvolvimento e implementação de sistemas de inteligência artificial, enfatizando a não discriminação, a transparência e a responsabilidade civil, assim como a definição de regramentos para a criação de imagem de pessoas vivas e falecidas por meio de IA, de modo claro, eficiente, seguro e responsável porque alguma regulamentação é mais salutar que nenhuma. É preciso compreender a utilização da IA no Direito Civil segundo os princípios da socialidade, da eticidade e da operabilidade, diretrizes amalgamadas no Código Civil de 2002. Trata-se de um passo modesto, mas necessário, ante a complexidade da problemática de uma sociedade digital em um Direito Civil ainda analógico.
CONHEÇA O LIVRO DO AUTOR!
LEIA TAMBÉM
- Reflexos do perdimento de cargo público como efeito da sentença penal condenatória ART. 92, Inciso I, alínea B do código penal) no regime disciplinar dos servidores públicos federais: parâmetros do Superior Tribunal de Justiça
- Danos morais por violação aos limites éticos no exercício da liberdade de expressão
NOTAS
1 HUBER, Ludwig. Democracia 2.0. El poder político en la era digital. Una discusión preliminar. Lima. Instituto de Estudios Peruanos (IEP), 2023, p. 125. Tradução livre: “… el exceso de información reemplaza nuestra certeza cognitiva con burbujas discursivas que erosionan las bases de la discusión política (…) , entonces, el término posverdad describe una situación que no solo se caracteriza por mentiras y creencias falsas, sino también, quizás incluso especialmente, por confusión causada por un exceso de información.”
2 EMPOLI, Giuliano Da. Os engenheiros do caos. Como as fake news, as teorias da conspiração e os algoritmos estão sendo utilizados para disseminar ódio, medo e influenciar eleições. Tradução: Arnaldo Bloch. 1ª- edição. 5ª- reimpressão. São Paulo: Vestígio, 2022, pág. 79.
3 EMPOLI, Giuliano Da. Os engenheiros do caos. Como as fake news, as teorias da conspiração e os algoritmos estão sendo utilizados para disseminar ódio, medo e influenciar eleições. Tradução: Arnaldo Bloch. 1ª- edição. 5ª- reimpressão. São Paulo: Vestígio, 2022, pág. 163.
4 Veja-se: CNJ vai investigar juiz que usou tese inventada pelo ChatGPT para escrever decisão. Disponível em: https://www.conjur.com.br/2023-nov-12/cnj-vai-investigar-juiz-que-usou-tese-inventada-pelo-chatgpt-para-escrever-decisao/. Acesso em: 02.12.2024.
5Brasil é vice-líder mundial em tempo de uso de internet; veja o ranking. Disponível em:https://gizmodo.uol.com.br/brasil-e-vice-lider-mundial-em-tempo-de-uso-de-internet-veja-o-ranking/. Acesso em: 02.12.2024.
6 “Art. 2º São princípios da PNCiber: I – a soberania nacional e a priorização dos interesses nacionais; II – a garantia dos direitos fundamentais, em especial a liberdade de expressão, a proteção de dados pessoais, a proteção da privacidade e o acesso à informação; III – a prevenção de incidentes e de ataques cibernéticos, em particular aqueles dirigidos a infraestruturas críticas nacionais e a serviços essenciais prestados à sociedade; IV – a resiliência das organizações públicas e privadas a incidentes e ataques cibernéticos; V – a educação e o desenvolvimento tecnológico em segurança cibernética; VI – a cooperação entre órgãos e entidades, públicas e privadas, em matéria de segurança cibernética; e VII – a cooperação técnica internacional na área de segurança cibernética.”
7 “Art. 20. O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade. (Redação dada pela Lei nº 13.853, de 2019) § 1º O controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial. § 2º Em caso de não oferecimento de informações de que trata o § 1º deste artigo baseado na observância de segredo comercial e industrial, a autoridade nacional poderá realizar auditoria para verificação de aspectos discriminatórios em tratamento automatizado de dados pessoais.”