Inteligência Artificial Generativa: Análise da tecnologia e de usa prática jurídica

Lorrayne Moraes Borges – Graduada em Direito pela Universidade Federal do Paraná – UFPR e pesquisadora do GEDAI

Até 2022, a robotização dos empregos era associada à substituição de trabalhadores manuais por robôs, com a expectativa de que trabalhos físicos se tornassem obsoletos. No entanto, o processo de robotização evoluiu, concentrando-se em profissões de caráter intelectual. Isso significou uma transição do foco em robôs humanoides para sistemas que simulam o funcionamento da mente humana.

Neste cenário, dois conceitos teóricos são particularmente relevantes: o Teste de Turing, que avalia se uma máquina pode simular o comportamento inteligente de forma indistinguível do humano, e o argumento do Quarto Chinês de John Searle, que desafia a ideia de que a IA possa realmente “compreender” no mesmo sentido que os humanos. Esses conceitos estabelecem um quadro crítico para analisar as aplicações atuais da IA no direito, com um enfoque especial nas implicações éticas.

 

O JOGO DA IMITAÇÃO DE ALAN TURING

Em 1950, o cientista Alan Turing publicou um artigo intitulado “Computing Machinery and Intelligence”, que explorou a hipótese da existência de um computador com a habilidade de imitar tão habilmente o comportamento humano que a distinção entre máquinas e seres humanos se tornaria imperceptível.

Com o intuito de testar a sua hipótese, Alan Turing desenvolveu o Jogo da Imitação. Neste jogo, três participantes (um homem, uma mulher e um juiz) são colocados em salas separadas e podem se comunicar apenas por texto datilografado. O homem e a mulher devem enganar o juiz, fazendo-o pensar que são uma mulher e um homem, respectivamente.

Depois de algum tempo, um dos dois indivíduos é substituído por um computador. O computador e o ser humano mantêm o diálogo, e o juiz deve indicar quem é a máquina e quem é o ser humano.

O Teste de Turing não se preocupava com o processo interno pelo qual a máquina chegava às suas respostas, mas sim com a indistinguibilidade das respostas em comparação com as de um ser humano. Essa abordagem externalista colocou a ênfase na funcionalidade em vez da forma, influenciando profundamente a direção da pesquisa em IA.

Embora muitos sistemas de IA modernos, como chatbots e assistentes virtuais, passem por variações simplificadas do teste, isso não implica necessariamente uma compreensão ou consciência genuína por parte da máquina. A indistinguibilidade nas respostas gera questões sobre o que realmente constitui “inteligência” em IA.

Alguns argumentam que passar no Teste de Turing é um indicativo de inteligência artificial forte (IA forte), onde a máquina não só simula a inteligência humana, mas também possui autoconsciência e entendimento.

 

O QUARTO CHINES DE JOHN SEARLE

O quarto chinês foi uma tese proposta por John Searle na década de 80. O argumento, publicado trinta anos após o artigo de Turing, propõe uma discussão filosófica acerca da consciência ou não dos computadores. Conforme Searle:

Considere um idioma que você não entende. No meu caso, eu não entendo chinês. Para mim, a escrita chinesa parece muitos rabiscos sem sentido. Agora, suponha que eu esteja em uma sala contendo cestas cheias de símbolos chineses. Suponha também que me seja dado um livro de regras em inglês para combinar símbolos chineses com outros símbolos chineses.

As regras identificam os símbolos inteiramente por suas formas e não exigem que eu entenda nenhum deles. As regras podem dizer coisas como: “Pegue um sinal de rabisco-rabisco da cesta número um e coloque-o ao lado de um sinal de rabisco-rabisco da cesta número dois”.

Imagine que pessoas fora da sala que entendem chinês me entregam pequenos grupos de símbolos e que, em resposta, eu manipulo os símbolos de acordo com o livro de regras e devolvo menores grupos de símbolos.

Agora, o livro de regras é o “programa de computador”. As pessoas que o escreveram são os “programadores” e eu sou o “computador”. As cestas cheias de símbolos são o “banco de dados”, os pequenos grupos que são entregues para mim são os “dados de entrada” (SEARLE, 1990, p. 26, tradução nossa).

O experimento do Quarto Chinês assemelha-se ao comportamento de um computador: a tira recebida é a entrada de dados; o livro de instruções é como um programa de computador; Searle age como a unidade central de processamento (CPU); e, por fim, a tira de papel enviada por Searle é a saída de dados.

O ponto principal do experimento é que Searle, ao imitar um computador, consegue responder corretamente a perguntas em chinês sem compreender o idioma.

Searle argumenta que a habilidade de um sistema para processar informações e responder a perguntas de maneira convincente não implica necessariamente verdadeira compreensão ou consciência.

Para Searle, uma IA, por mais avançada que seja, é análoga à pessoa no quarto: ela manipula símbolos e dados sem compreender verdadeiramente seu significado.

 

LIMITES DA COMPREENSÃO ARTIFICIAL NO DIREITO

No direito, grande parte do trabalho envolve escrita e pesquisa, frequentemente realizadas em computadores e enviadas eletronicamente aos tribunais. Isso torna o setor altamente suscetível à robotização e à IA generativa.

Existe, no entanto, uma preocupação filosófica significativa quanto à integração desta tecnologia no direito. Atualmente, a IA imita comportamentos humanos sem compreender verdadeiramente símbolos e significados, gerando “alucinações” digitais sofisticadas. Esta questão se torna ainda mais complexa quando se considera a natureza altamente especializada e consequencial do campo jurídico, onde a precisão e a veracidade das informações são fundamentais.

Por exemplo, na cidade de Nova York, em 2023, advogados teriam utilizado do ChatGPT para redigir recurso em um dos casos que representavam. No entanto, o Chat utilizou precedentes inexistentes – inventados pela própria IA –, para fundamentar sua argumentação.

Precedentes que pareciam reais, ou seja, a IA imitou o comportamento humano de argumentação, mas o fez sem qualquer compreensão de qual comportamento e de qual exemplo, ela apenas calculou a probabilidade daquele texto estar seguindo aquela exata sequência de caracteres. E o fez tão bem que os precedentes passaram despercebidos pelo peticionante (conforme noticia Uol, São Paulo, 28 mai. 2023).

No Brasil, o Conselho Nacional de Justiça (CNJ) anunciou uma investigação sobre uma sentença assinada por um juiz federal da 1ª Região que utilizou o ChatGPT, uma ferramenta de IA, para auxiliar na redação do documento. A controvérsia surgiu quando a IA inventou uma jurisprudência inexistente do Superior Tribunal de Justiça (STJ), levando à detecção da fraude pelo advogado derrotado (conforme noticia o JOTA, São Paulo, 13 nov. 2023. IA no Judiciário).

Em 2020, o CNJ publicou a Resolução 332/2020 que permite, regulamenta e incentiva a pesquisa e desenvolvimento de Inteligências Artificiais relacionadas ao campo do Direito.

A resolução não proíbe o uso de Inteligências Artificiais, pelo contrário, ela estabelece uma série de normas e recomendações para o uso ético dessas ferramentas, destacando inclusive, a importância da supervisão humana (conforme CNJ. Resolução 332, de 21 de agosto de 2020).

Nesse sentido, é importante analisar o papel da supervisão humana no uso de ferramentas baseadas em IA. A dependência excessiva na tecnologia sem a devida verificação manual dos dados pode levar a erros graves. Isso sugere que, embora a IA possa ser uma ferramenta valiosa para aumentar a eficiência, ela não substitui a necessidade de supervisão e discernimento humano, especialmente em campos que exigem interpretação e julgamento complexos.

Tal como a estrutura do algoritmo, os dados usados são igualmente cruciais. Eles são comparáveis às instruções no experimento mental do ‘Quarto Chinês’ de John Searle. Se, por exemplo, as instruções e as comunicações nesse quarto fossem em russo, um observador fluente nesse idioma interpretaria as respostas da mesma maneira. Isso ilustra que se os dados (ou instruções) forem enviesados, o resultado da IA inevitavelmente refletirá esses vieses.

E se os dados são como as instruções, e as instruções estiverem enviesadas não podemos esperar um resultado livre de inferências humanas. Os vieses cognitivos, uma área de estudo da psicologia comportamental, se entrelaçam a essa problemática. Vieses como o de confirmação, inerentes ao pensamento humano, podem ser involuntariamente transferidos para a IA intensificando os desafios de alinhamento ético e funcional.

Por exemplo, os Tribunais dos Estados Unidos utilizam IAs que preveem quem será um futuro criminoso sob o argumento de que esses sistemas estariam livres de qualquer preconceito humano (conforme ANGWIN, J.; JEFF, L.; MATTU, S.; KIRCHNER, L. , 2016). Entretanto, o grupo de jornalistas Pro Publica realizou um estudo sobre as avaliações de risco geradas por um programa em Broward County, na Flórida, onde foram analisadas as notas atribuídas a mais de 7.000 indivíduos presos entre 2013 e 2014. O objetivo era verificar a precisão dessas avaliações comparando-as com as taxas de reincidência desses réus nos dois anos subsequentes, seguindo os mesmos critérios utilizados pelo software.

A análise dos dados mostrou que o algoritmo era particularmente suscetível de sinalizar erroneamente os réus negros como futuros criminosos, sinalizando-os quase duas vezes mais em comparação aos réus brancos. Do mesmo medo, os réus brancos foram rotulados como de baixo risco com mais frequência do que os réus negros. Pode-se observar que o efeito foi a reprodução de preconceitos e vieses sociais, em contraste ao argumento inicial. Não podemos esperar produzir o resultado hebraico se as entradas e saídas estão escritas em russo.

 

CONSIDERAÇÕES FINAIS.

Tomando o Teste de Turing como referência, mesmo que o ChatGPT ou qualquer outro similar seja aprovado no teste, isso não significa uma real compreensão do texto produzido, conforme argumentado por Searle, a IA está confinada à manipulação sintática de símbolos e carece de semântica, ou seja, a compreensão real do significado desses símbolos.

Desse modo, quando falamos de Inteligência Artificial exercendo a atividade jurídica, segundo o AQC, falamos de um conjunto de algoritmos que reproduz padrões pré-estabelecidos em um banco de dados, sem qualquer reflexão e real entendimento dos significados dos textos da lei, dos julgados e das doutrinas.

Para os profissionais do direito, é crucial reconhecer e familiarizar-se com os aplicativos de Inteligência Artificial como ferramentas de trabalho, mantendo um equilíbrio entre tecnologia e expertise humana. Eles devem estar cientes das implicações éticas e legais do uso da IA, o que implica compreender tanto os aspectos técnicos quanto o impacto nas decisões jurídicas e nos direitos dos indivíduos.

A formação contínua e a atualização profissional são essenciais, preparando os advogados e outros profissionais do direito para trabalhar com a IA e enfrentar os desafios associados.

No Brasil, o Conselho Nacional de Justiça (CNJ), na Resolução 332/2020, estabeleceu um conjunto de normativas visando a salvaguarda dos princípios fundamentais previstos na Constituição Federal. Estas normas enfocam primordialmente na redução da opacidade dos algoritmos e na prevenção de qualquer forma de discriminação.

Além disso, a resolução proíbe expressamente o uso de Inteligências Artificiais (IAs) preditivas em questões penais e estabelece diretrizes claras para assegurar a transparência dos algoritmos. Em conclusão, a supervisão humana e a regulamentação adequada do uso da IA no direito (como a resolução do CNJ) são imperativos para garantir que esta tecnologia seja empregada de forma responsável, ética e transparente.

 

Para ter acesso integral e gratuíto ao texto completo da pesquisa sobre o uso de inteligência artificial generativa na prática jurídica. Baixe  o link: Download

 

Referências:

American Bar Association (ABA). ABA forms task force to study impact of artificial intelligence on the legal profession. Aug 2023. Disponível em: <https://www.americanbar.org/news/abanews/aba-news-archives/2023/08/aba-task-force-impact-ofi/#:~:text=The%20AI%20Task%20Force%20will,accountability%2C%20and%20transparency%20in%20AI> Acesso em: 28 nov 2023

ANGWIN, J.; JEFF, L.; MATTU, S.; KIRCHNER, L. Machine Bias: there’s software used across the country to predict future criminals. And it’s biased against blacks. PROPUBLICA. Chicago, 23 mai. 2016. Disponível em: <https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing>.Acesso em: 25  nov. 2023.

BRASIL. CNJ. Resolução 332, de 21 de agosto de 2020. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3429. Acesso em: 24 nov 2023

BORGES, Lorrayne Moraes. O teste de Turing e o Argumento do Quarto Chines: Uma análise sobre o uso de inteligência artificial generativa na prática jurídica. TCC aprovado na Faculdade de Direito da Universidade Federal do Paraná em 2023. Disponível em:  https://gedai.com.br/wp-content/uploads/2023/12/TCC-v.-final-LORRAYNE-MORAES-BORGES.pdf

FALK, D., The Turing Test Measures Something, But It’s Not “Intelligence”, Smithonian Magazine, não p., 10 jun de 2014. Disponível em: <https://www.smithsonianmag.com/innovation/turing-test-measures-something-but-not-intelligence-180951702/>. Acesso em: 25 nov.  2023.

FRANCESCA, L.; SARTOR, G.; Artificial intelligence in the big data era: risks and opportunities. Legal Challenges of Big Data, vol 1, Set. 2020. p.280-307

governance. Disponível em: <https://www.oecd.org/sti/science-technology-innovation-outlook/technology-governance/>. Acesso em 23 nov 2023.

GUEDES. TRIBUNAL REGIONAL FEDERAL DA 1ª REGIÃO, CIRCULAR COGER 33/2023, 31 out 2023. Disponível em: https://www.conjur.com.br/wp-content/uploads/2023/11/SEI_19283798_Circular_Coger_33.pdf. Acesso em: 24 nov 2023

NUNES, Dierle. Inteligência artificial e direito processual: vieses algorítmicos e os riscos de atribuição de função decisória às máquinas. Revista de Processo, vol. 285/2018, p. 421 – 447, Nov/2018. p.9.

OPPY, G.; DOWE, D. “The Turing TestThe Stanford Encyclopedia of Philosophy (Winter 2021 Edition), Edward N. Zalta (ed.), Disponível em: <https://plato.stanford.edu/archives/win2021/entries/turing-test/>. Acesso em: 25 nov. 2023.

ORGANIZAÇÃO PARA A COOPERAÇÃO E DESENVOLVIMENTO ECONÔMICO (OCDE). Technology governance. Disponível em: <https://www.oecd.org/sti/science-technology-innovation-outlook/technology-governance/>. Acesso em 23 nov 2023.

SANTOS, F. S.; SOUZA, P. A.; ESTECHE, V. G.; Governança tecnológica e auditabilidade do alinhamento ético-valorativo (alignment) das inteligências artificiais generativas. Suprema Revista de Estudos Constitucionais. Brasília, v. 3, n. 2, dez. 2023.

SEARLE, J. Is the Brain’s Mind a Computer Program? Revista Scientific American, v. 262, n. 1, p. 26–31. jan. 1990).

SUSSKIND, Richard. Tomorrow Lawyers: an introduction to your future. Oxford: Oxford University Press, 2013, p. 32.

THE ECONOMIST. Generative AI could radically alter the practice of law. Nova York, 06 jun. 2023. Disponível em: <https://www.economist.com/business/2023/06/06/generative-ai-could-radically-alter-the-practice-of-law?utm_medium=cpc.adword.pd&utm_source=google&ppccampaignID=19495686130&ppcadID=&utm_campaign=a.22brand_pmax&utm_content=conversion.direct-response.anonymous&gad_source=1&gclid=CjwKCAiA04arBhAkEiwAuNOsImZD1PybScmn-lYeHXRy8JGYk_khewFL2gg1-EOaxARg_XGjF93l2hoC8tsQAvD_BwE&gclsrc=aw.ds>. Acesso em: 27 nov. 2023.

TURING, Alan. Computing machinery and intelligence. Mind, Volume LIX, Issue 236, Out 1950, p.433–460.

UOL. Deu ruim: advogado usou ChatGPT e chatbot inventou casos que não existem, São Paulo, 28 mai. 2023. Disponível em: https://www.uol.com.br/tilt/noticias/redacao/2023/05/28/advogado-chatgpt.htm?cmpid=copiaecola. Acesso em: 27, nov. 2023.

VALE, H. Juiz do TRF1 que usou o ChatGPT para elaborar decisão será investigado pelo CNJ. JOTA, São Paulo, 13 nov. 2023. IA no Judiário, não p. Disponível em https://www.jota.info/justica/juiz-do-trf1-que-usou-o-chatgpt-para-elaborar-decisao-sera-investigado-pelo-cnj-13112023. Acesso em 24 nov 2023

VALENTINI, R. S. Julgamento por computadores? As novas possibilidades da juscibernética no século XXI e suas implicações para o futuro do direito e do trabalho dos juristas. Tese (Doutorado em direito) – Faculdade de Direito, Universidade Federal de Minas Gerais. Belo Horizonte. 2018. p. 42-43.

VIANA, W. C. Técnica e Inteligência Artificial: O debate entre J.Searle e D. Dennet.  Pensando, Revista de Filosofia: Vol. 4, Nº 7, 2013. p.72-73.

Enviar Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *