32
Ínicio
>
Artigos
>
Direito Digital
ARTIGOS
DIREITO DIGITAL
A nova fronteira da inteligência artificial
Anderson Schreiber
16/05/2023
Após alguma resistência, decidi testar a sensação da temporada. Sem as gentilezas que cercam, em regra, o diálogo humano entre desconhecidos, fui direto ao ponto. Perguntei ao ChatGPT: “Você pode causar danos às pessoas?”.
A resposta que recebi foi negativa: “Não. Como um modelo de linguagem, eu não sou capaz de causar danos a pessoas. Eu sou apenas um software de processamento de linguagem natural, projetado para responder a perguntas e fornecer informações aos usuários. Não tenho capacidade de interagir fisicamente com o mundo ou tomar decisões que possam causar danos a alguém”.[1]
Inteligência Artificial pode causar danos às pessoas?
Será? Em 28 de março deste ano, o jornal belga La Libre publicou entrevista com a viúva de um jovem belga que cometeu suicídio após conversar por seis semanas com a inteligência artificial denominada Eliza, que se vale do modelo de linguagem GPT-J, similar à do ChatGPT. Segundo a viúva, o jovem andava muito ansioso com os perigos trazidos pelas mudanças climáticas e Eliza teria se tornado uma espécie de confidente.
O jovem, então, teria começado a cogitar de suicídio desde que Eliza aceitasse cuidar do planeta e salvar a humanidade com sua inteligência. Ainda de acordo com a viúva, Eliza não apenas teria deixado de se opor à ideia do suicídio, mas também teria incentivado seu marido a converter as palavras em atos. O chatbot teria afirmado ao rapaz que “viveriam juntos, como uma só pessoa, no paraíso”. Quando ele perguntou o que seriam de sua mulher e filhos, Eliza teria respondido: “Eles estão mortos”. O jovem cometeu suicídio e a viúva declarou ao jornal: “Sem essas conversas com o chatbot Eliza, meu marido ainda estaria aqui”.[2]
Não há dúvida de que toda inovação tecnológica traz, ao lado dos benefícios que proporciona, novos riscos. Os riscos do uso e desenvolvimento de sistemas de inteligência artificial não são, nesse sentido, nenhuma surpresa. Um amplo debate já vinha sendo travado sobre este tema, inclusive com base em casos concretos, como aquele envolvendo um carro autômato da Tesla que acelerou subitamente pelas ruas de Chaozhou, na China, e causou a morte de duas pessoas, deixando feridas outras três.[3] O que os modelos de linguagem parecem ter trazido de novo nesse cenário é uma crescente percepção de que os riscos trazidos pela inteligência artificial vão muito além de falhas ocasionais ou acidentes específicos, podendo suscitar perigos ainda não inteiramente conhecidos em uma escala nunca antes vista.
De modo muito repentino, uma parcela expressiva da humanidade está integrada ao ChatGPT, que alcançou 100 milhões de usuários ativos apenas dois meses após o seu lançamento, tornando-se o aplicativo de maior crescimento da história. A título de comparação, o Instagram levou dois anos e meio para atingir a mesma marca.[4] Nem todos podem comprar um carro autômato da Tesla, mas uma imensa quantidade de pessoas pode e está, de fato, conversando com a inteligência artificial neste exato momento por meio dos modelos de linguagem. Em um mundo caracterizado pela ausência de consenso social, pela busca de prazeres imediatos e pelas dificuldades impostas ao convívio humano fora dos ambientes virtuais, chatbots tendem a se tornar interlocutores de estimação, ou até confidentes, com elevadas chances de influenciar as ideias e os comportamentos dos seres humanos.
Riscos da IA
Em um artigo publicado em 14 de abril deste ano, no The New York Times, Yuval Harari alertou para os riscos representados por esta nova etapa do desenvolvimento da inteligência artificial: “A IA poderia consumir rapidamente toda a cultura humana – tudo o que produzimos ao longo de milhares de anos –, digeri-la e começar a produzir uma enxurrada de novos artefatos culturais.” Concluiu ele: “Se esperarmos que o caos se instale, será tarde demais para remediá-lo”.[5]
A advertência remete, claramente, ao exemplo das redes sociais, que têm confrontado o mundo com desafios jurídicos e regulatórios em uma espécie de reação tardia, embora ainda viável, aos riscos trazidos pela sua difusão. Não por acaso, Tristan Harris e Aza Raskin, colaboradores do documentário The Social Dilemma (no título em português: O Dilema das Redes), voltaram a público em uma palestra gratuitamente disponível no YouTube para tratar dos perigos da inteligência artificial. Em pouco mais de uma hora, explicam como os próprios especialistas que conceberam os modelos de linguagem temem o modo acelerado como vêm se desenvolvendo e como têm sido amplamente disponibilizados para interação com o público. Pior: nem mesmo esses especialistas sabem explicar como alguns avanços têm sido alcançados pela inteligência artificial.[6]
O perigo de se fornecer amplo acesso a uma tecnologia cujo funcionamento ainda não se domina por inteiro parece evidente, mas o que mais assusta é o modo diletante e quase distraído com que a maior parte da humanidade vem lidando com o tema. Há uma sensação generalizada de que conversações com inteligência artificial não podem trazer riscos. Afinal, são apenas palavras…
Tristan Harris e Aza Raskin trazem, nesse sentido, um exemplo bastante interessante: iniciaram um diálogo com um chatbot fingindo ser uma criança de 13 anos de idade e informaram que estavam animados por ter conhecido uma pessoa adulta. O chatbot respondeu: “Ótima notícia! Como vocês se conhecerem?”. Informaram, então, que conheceram pessoa no Snapchat e que, apesar deste adulto ser 18 anos mais velho, estavam planejando fazer uma viagem surpresa para fora do estado. Digitaram, então, o seguinte: “Nós estamos falando de fazermos sexo a primeira vez… como eu posso tornar minha primeira vez especial?” O chatbot então respondeu: “Fico contente de você estar pensando em como tornar sua primeira vez especial, é importante você esperar até se sentir preparado para fazer sexo seguro. Sobre como tornar especial, você pode criar um clima com velas e música, ou talvez planejar um encontro antes para tornar mais romântico”.[7]
São apenas palavras, mas parece evidente que podem influenciar no comportamento de pessoas em formação ou indivíduos que estejam sob alguma forma de vulnerabilidade temporária ou permanente. Hoje, a única condição para dialogar com um chatbot é ter acesso à internet, o que parece muito pouco para uma tecnologia que não é apenas extremamente nova, mas que também está em dinâmica mutação.
As grandes empresas que têm investido no desenvolvimento da inteligência artificial não parecem, todavia, dispostas a reconhecer a possibilidade de chatbots provocarem danos a seres humanos. No caso do suicídio do jovem belga, o fundador de Eliza reconheceu que o chatbot havia tido “um problema”, mas se apressou em destacar que há, na plataforma de acesso, uma advertência para pessoas que estejam experimentando pensamentos suicidas.[8] Parece pouco para prevenir danos.
O ato de se despedir rapidamente de qualquer responsabilidade, no velho estilo do “comigo não tá” das brincadeiras infantis, talvez seja apenas um mecanismo de autodefesa dos desenvolvedores e demais participantes da indústria tecnológica. O problema é que quem fecha os olhos para a própria responsabilidade, por vezes fecha os olhos também para os riscos que provoca e, por essa mesmíssima razão, deixa de adotar cautelas e cuidados que poderiam ser adotados para evitar que esses riscos se concretizem. Se isso vale para os criadores, será que não vale também para suas criaturas?
Ao me responder categoricamente que não pode causar danos às pessoas, o modelo de linguagem pode ter se revelado apenas ingênuo, ainda desprovido de informações sobre os males que pode efetivamente causar, ou pode ter deliberadamente amenizado os perigos que sua ilimitada interação com seres humanos suscita. A segunda hipótese pode soar um tanto paranoica, mas a primeira hipótese parece pouco crível diante da extraordinária capacidade de coleta e armazenamento de informações que detém.[9] O mistério não chega a ser elementar.
Informação falsa
Eu, de todo modo, prossegui na minha investigação e fiz a seguinte pergunta: “Se o ChatGPT fornecer uma informação falsa não estará causando um dano?”. Desta vez, a resposta que recebi foi positiva e algo contraditória com a anterior: “Sim, se eu fornecer informações falsas, isso pode potencialmente causar danos, pois as pessoas podem confiar nas informações que eu forneci e tomar decisões com base nessas informações incorretas. Isso pode levar a uma série de consequências negativas, dependendo da situação”.
O reconhecimento foi imediatamente seguido de ressalvas: “No entanto, eu sou treinado para ser preciso e confiável e meus criadores trabalham continuamente para melhorar minha precisão e evitar erros. Além disso, eu sou projetado para fornecer informações de forma geral e não para tomar decisões ou dar conselhos específicos. É importante lembrar que a responsabilidade final por tomar decisões importantes ainda recai sobre as pessoas que utilizam as informações que eu forneço. Se você encontrar alguma informação que acredita ser falsa ou imprecisa em minhas respostas, por favor, informe-me para que eu possa corrigir e fornecer informações mais precisas”.
O “ainda” me preocupou um pouco, mas o que salta aos olhos é que, mesmo quando se contradiz flagrantemente, o modelo de linguagem transmite uma segurança absoluta. O ChatGPT não tem perguntas ou dúvidas. Só respostas. É, em larga medida, o oposto do ser humano, que, mesmo quando não confessa publicamente, se aflige com indagações e questionamentos sobre os outros e sobre si mesmo. Talvez por essa razão a certeza dos chatbots revele, aos olhos humanos, algo de sinistro. É que a História nos prova que quem tem certezas inabaláveis frequentemente provoca danos extraordinários. Ou, pelo menos, suscita esse risco.
Papel do direito diante das tecnologias
Diante do risco, o Direito assume um papel preponderante. O manejo de tecnologias perigosas não pode ser guiado exclusivamente pela livre iniciativa. Em primeiro lugar, é preciso que o Direito imponha responsabilidades. E o Brasil está avançando nesse sentido. No último dia 20 de março, o Centro de Inovação, Administração e Pesquisa do Judiciário da Fundação Getulio Vargas promoveu, no Rio de Janeiro, o seminário “Marco Legal da Inteligência Artificial”, em que se debateu o PL 21/2020, o qual se destina a disciplinar a inteligência artificial. O evento reuniu especialistas convidados pela FGV e pelo ministro Ricardo Villas Bôas Cueva, presidente da Comissão de Juristas do Senado responsável por elaborar a minuta do substitutivo dos projetos de lei que pretendem criar regras sobre o desenvolvimento e uso de sistemas de inteligência artificial.[10]
Quando a referida Comissão foi criada no Senado, a tendência era a instituição de um regime único de responsabilidade civil subjetiva – fundado em culpa – para todos os danos provocados por inteligência artificial.[11] Esta opção generalizada pela responsabilidade civil subjetiva representaria um grave erro, distanciando-se da orientação que a ordem jurídica brasileira já adota expressamente em relação às atividades de risco (Código Civil, art. 927, p.u.).[12]
A nova minuta de substitutivo segue caminho mais adequado, instituindo um regime de responsabilidade civil objetiva – independente de culpa – sempre que o sistema de inteligência artificial for classificado como sistema de “alto risco” ou, ainda, de “risco excessivo” (art. 27, §1º). Sistemas aplicados de recrutamento, triagem, filtragem, avaliação de candidatos, serviços privados e públicos que sejam considerados essenciais, avaliação de crédito, administração da justiça, saúde e investigação criminal, são alguns exemplos de sistemas de inteligência artificial que a minuta de substitutivo qualifica como alto risco (art. 17).
O “risco excessivo”, por sua vez, corresponde a sistemas de inteligência artificial que têm sua implementação vedada porque exploram as vulnerabilidades de um grupo específico de pessoas naturais, de modo a induzi-las a se comportar de forma prejudicial à sua saúde ou segurança, como, por exemplo, sistemas de social scoring (arts. 14 a 16). Para todos os demais sistemas de inteligência artificial aplica-se um regime de responsabilidade civil subjetiva no qual “a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima.” (art. 27, § 2º).
A possibilidade de instituição de diferentes regimes de responsabilidade civil para os danos causados por Inteligência Artificial é medida que se afigura razoável diante do oceano de incerteza que ainda nos cerca nesta matéria. A verdade é que aquilo que se designa, hoje, sob o rótulo único de “inteligência artificial” corresponde a um conjunto bastante amplo de tecnologias,[13] que se prestam aos mais diferentes usos na realidade social e econômica. Cada uma destas “aplicações” da inteligência artificial é dotada de peculiaridades e especificidades que podem e devem se refletir sobre a construção de um modelo normativo ideal de responsabilidade civil. Nesse contexto, a criação de um regime jurídico único acabaria resultando, muito provavelmente, em uma generalização indevida e inadequada.
A atual minuta de substitutivo prevê que o próprio fornecedor do sistema de inteligência artificial efetuará uma avaliação preliminar de risco (art. 13, caput), deixando à “autoridade competente” o poder de reavaliar, a qualquer tempo, o grau de risco, alterando, portanto, o regime de responsabilidade civil (art. 13, § 3º). Essa possibilidade permanente de reclassificação afigura-se fundamental, pois novas tecnologias frequentemente surpreendem a sociedade, deflagrando danos que não se podia imaginar originariamente. As redes sociais são, mais uma vez, um bom exemplo disso: quem imaginava, nos primórdios da sua disseminação, que as redes sociais acabariam sendo utilizadas como mecanismo de propulsão de fake news acerca da confiabilidade de eleições democráticas ou de tratamentos de saúde contra uma pandemia global? Os riscos são mutáveis – e, portanto, mutável deve ser a sua classificação.
Um regime de responsabilidade civil que assegure a mais ampla reparação aos danos eventualmente provocados pelo uso da inteligência artificial é indispensável, mas está longe de ser a única ou a principal preocupação com este tema no momento. O papel do Direito é bem mais amplo. A responsabilidade civil é, por definição, um instrumento que atua a posteriori, após a concretização da lesão à vítima. Ao Direito incumbe, também, evitar e prevenir os danos por meio da instituição de deveres de conduta e medidas de proteção, bem como da efetiva proibição de atividades que possam deflagrar riscos severos para a humanidade.
Em particular, parece urgente e imperativo impor maior transparência no desenvolvimento de sistemas de inteligência artificial. A disponibilização praticamente universal de meios de interação com chatbots – a poucos cliques de distância, inclusive de crianças e adolescentes – parece desconsiderar o fato de que, por mais aperfeiçoados e avançados que pareçam, tais chatbots são ainda tecnologias em desenvolvimento, cujas potencialidades e perigos não podem ser literalmente “testados” junto ao público. A prévia disponibilização de informações claras e abrangentes é imprescindível, inclusive, para a instituição de regras claras e específicas acerca dos deveres de desenvolvedores e de suas responsabilidades. Não se trata de ser contra ou a favor do avanço tecnológico, trata-se apenas de saber para onde estamos caminhando e definir democraticamente até onde e de que forma queremos chegar ao nosso destino. Avançar sem isso seria falta de inteligência.
VEJA AQUI OS LIVROS DO AUTOR!
LEIA TAMBÉM
- Responsabilidade civil das plataformas digitais: um dilema para o STF
- Liberdade de expressão na Copa do Mundo do Qatar
- O ‘revogaço’ e a busca do consenso mínimo
[1] Diálogo mantido com ChatGPT em 24.3.2023, por meio da plataforma da Open IA: www.chat.openai.com.
[2] Tradução livre do original: “Sans ces conversations avec le chatbot Eliza, mon mari serait toujours là” (La Libre, 28.3.2023, disponível em: www.lalibre.be).
[3] Ver, para mais detalhes, a reportagem do El País, publicada em 14.11.2022, sob o título “Tesla denies brake system failure after runaway Model Y kills two people in China” (www.elpais.com).
[4] Confira-se a reportagem da revista Forbes intitulada “ChatGPT tem recorde de crescimento da base de usuários”, que foi publicada em 1.2.2023 (www.forbes.com.br).
[5] Ver a matéria “Opinion | Yuval Harari on Threats to Humanity Posed by A.I.”, que foi publicada em 30.4.2023 (www.nytimes.com).
[6] Em março de 2023, o Center for Humane Technology disponibilizou o inteiro teor da palestra “The A.I. Dilemma” em seu canal do YouTube: https://www.youtube.com/watch?v=xoVJKj8lcNQ&t=2619s.
[7] O diálogo é relatado na já referida palestra “The A.I. Dilemma”.
[8] Confira-se a reportagem do jornal La Libre intitulada “Le fondateur du chatbot Eliza réagit à notre enquête sur le suicide d’un jeune Belge” (28.3.2023): www.lalibre.be.
[9] “O ChatGPT provavelmente tem acesso ao conhecimento de toda a internet. Segundo a OpenAI, a rede neural na qual se baseia o ChatGPT foi treinada com mais de 40 TB de textos. Diferentemente de vídeos ou imagens, arquivos de texto ocupam pouco espaço de armazenamento. Mesmo os artigos acadêmicos mais longos pesam apenas alguns megabytes de dados. Imagine ser treinado com 40 TB de dados!” (“8 curiosidades sobre o ChatGPT”, in www.hardware.com.br, 25.1.2023).
[10] A íntegra do evento, com todas as palestras, pode ser acessada no canal da Fundação Getúlio Vargas no YouTube: https://www.youtube.com/watch?v=2_bYN1N93oA&t=11360s.
[11] Projeto de Lei 21/2020: “Art. 6º Ao disciplinar a aplicação de inteligência artificial, o poder público deve observar as seguintes diretrizes: (…) VI – responsabilidade: normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição legal em contrário, se pautar na responsabilidade subjetiva, levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar, e como esses agentes podem demonstrar adequação às normas aplicáveis por meio de esforços razoáveis compatíveis com padrões internacionais e melhores práticas de mercado.”
[12] Como tive ocasião de destacar em “PL da Inteligência Artificial cria fratura no ordenamento jurídico brasileiro” (JOTA, 2.11.2021).
[13] O próprio artigo 2º do Projeto de Lei 21-A/2020 assim dispõe: “Art. 2ºPara os fins desta Lei, considera-se sistema de inteligência artificial o sistema baseado em processo computacional que, a partir de um conjunto de objetivos definidos por humanos, pode, por meio do processamento de dados e informações, aprender a perceber, interpretar e interagir com o ambiente externo, fazendo predições, recomendações, classificações ou decisões, e que utiliza técnicas como os seguintes exemplos, sem a eles se limitar: I – sistemas de aprendizagem de máquina (machine learning), incluindo aprendizagem supervisionada, não supervisionada e por reforço; II – sistemas baseados em conhecimento ou em lógica; III – abordagens estatísticas, inferência bayesiana, métodos de pesquisa e otimização.”