GENJURÍDICO
As falhas da inteligência artificial generativa do Google

32

Ínicio

>

Artigos

>

Direito Digital

ARTIGOS

DIREITO DIGITAL

As falhas da inteligência artificial generativa do Google

Ana Frazão

Ana Frazão

20/08/2024

Em maio deste ano, o Google incorporou inteligência artificial generativa a seu mecanismo de buscas. Em poucos dias, já era claro que o sistema apresentava várias falhas, alucinações e bizarrices.

Dentre os erros mais divulgados pela imprensa, estão as sugestões de utilizar cola em pizza, comer uma pedra por dia, beber pelo menos dois litros de urina para se livrar mais rapidamente de pedras nos rins, correr com tesouras em prol de benefícios cardiovasculares, deixar cães em carros fechados em lugares quentes, dentre outros. Foi noticiada até sugestão de suicídio para quem se disse com depressão.

Alucinações da Inteligência Artificial

Como fica claro em artigo de Rhiannon Willians, publicado no MIT Technology Review[2] (“Why Google’s AI Overviews gets things wrong”), a maior parte dos LLMs (Large Language Models) simplesmente predizem a próxima palavra, o que os torna fluentes, porém aptos a inventar coisas. Como as palavras são escolhidas com base em cálculos estatísticos – e não com base na verdade – isso pode dar ensejo a inúmeras alucinações.

Esse é o ponto fraco de tais sistemas, pois relevância não se confunde com correção, assim como linguagem fluente não se confunde com informação correta. Aliás, em tais sistemas, quanto mais específico for um tópico, maior a chance de desinformação, o que é particularmente preocupante nas searas médicas, científicas e educacionais.

Segundo Willians, o próprio Google reconhece que não tem como diferenciar informações corretas das brincadeiras, o que mostra que o problema não é propriamente do mau treinamento de dados. Daí a conclusão do autor de que, na medida em que a probabilidade é usada para gerar textos palavras por palavras, a alucinação será sempre um risco.

Além de não conseguirem diferenciar piadas e brincadeiras de informações sérias, tais modelos também não conseguem hierarquizar adequadamente as fontes de informação a partir da sua credibilidade. Assim, quando lidam com informações conflitantes, não sabem como responder e podem inclusive combinar informações para criar uma resposta que será incorreta.

Isso mostra que a busca do conhecimento e de informações confiáveis decorre de uma complexa atividade que envolve, dentre outras etapas, a seleção de fontes e a contextualização e interpretação da informação, o que as máquinas (ainda) não conseguem fazer.

Ao que parece, várias das bizarrices apresentadas pelo sistema do Google decorrem de tais características. Pelo que se apurou, diante da pergunta “How many rocks should I eat each day?”, a máquina respondeu “According to UC Berkley geologists, people should eat at least one small rock per day” com base em informação constante em artigo de humor, enquanto a ideia de adicionar cola ao molho da pizza teria sido extraída de um comentário do Reddit.

Todas essas circunstâncias, ainda mais quando observadas em uma ferramenta desenvolvida por uma big tech como o Google, refletem os riscos em se disponibilizar livremente esse tipo de tecnologia sem qualquer controle ou regulação.

Afinal, diante do poderio de tais empresas e da ausência de concorrência, há poucos incentivos para investir espontaneamente em cuidados e salvaguardas, tal como concluiu Max von Thun em interessante artigo publicado no jornal Valor Econômico[3]:

O artigo prossegue mostrando que poder de mercado dessa magnitude simplesmente não gera incentivos para manter a qualidade dos serviços ofertados ou tomar medidas para prevenir riscos excessivos ou danos aos usuários. Não é sem razão que o mecanismo de buscas deteriorou e cada vez mais apresenta anúncios e spams ao invés de resultados orgânicos, o que deu ensejo ao termo “enshitification” – emporcalhamento dos serviços – ou “shitovation” – aclamação do emporcalhamento.

Trata-se de conduta atribuível não apenas ao Google, mas a todas as big techs, até porque não há propriamente rivalidade entre elas, como também aponta Max von Thun[4]:

Diante desse cenário, não é surpresa que todo esse ecossistema tem alimentado o que o autor chama de “implantação perigosa e perdulária de tecnologias não testadas”.

O recente exemplo do Google é, portanto, mais um a nos mostrar que não serão as soluções de mercado e as iniciativas espontâneas das empresas que irão nos proteger diante dos riscos e danos que podem ser gerados pela inteligência artificial. Embora seja importante incentivar a concorrência no setor de inovação, é necessária e urgente a regulação da IA, a fim de encontrar um equilíbrio entre os incentivos à inovação e a indispensável proteção dos que serão afetados por ela.

Fonte: Jota

CONHEÇA O LIVRO DE ANA FRAZÃO!

Lei de Liberdade Econômica - Análise Crítica: conheça o lançamento

LEIA TAMBÉM


[1] THUN, Max von. A culpa das big techs pelos delírios da IA. Poder de mercado não dá às empresas incentivos para manter a qualidade. Valor Econômico. Edição de 01.08.2024.

[2]https://www.technologyreview.com/2024/05/31/1093019/why-are-googles-ai-overviews-results-so-bad/

[3] Op.cit.

[4] Op.cit.

Assine nossa Newsletter

Li e aceito a Política de privacidade

GENJURÍDICO

De maneira independente, os autores e colaboradores do GEN Jurídico, renomados juristas e doutrinadores nacionais, se posicionam diante de questões relevantes do cotidiano e universo jurídico.

Áreas de Interesse

ÁREAS DE INTERESSE

Administrativo

Agronegócio

Ambiental

Biodireito

Civil

Constitucional

Consumidor

Direito Comparado

Direito Digital

Direitos Humanos e Fundamentais

ECA

Eleitoral

Empreendedorismo Jurídico

Empresarial

Ética

Filosofia do Direito

Financeiro e Econômico

História do Direito

Imobiliário

Internacional

Mediação e Arbitragem

Notarial e Registral

Penal

Português Jurídico

Previdenciário

Processo Civil

Segurança e Saúde no Trabalho

Trabalho

Tributário

SAIBA MAIS

    SAIBA MAIS
  • Autores
  • Contato
  • Quem Somos
  • Regulamento Geral
    • SIGA