ABDPRO #74 -   PROJETO VICTOR E AS GARANTIAS FUNDAMENTAIS DO DIREITO PROCESSUAL: OBSERVAÇÕES INICIAIS  

06/03/2019

Coluna ABDPRO

 

Tecnologias que são capazes de promover uma ruptura de pensamento e mudam o entendimento sobre determinada prática, criando uma nova cultura ao entorno de si que não pode ser comparada a nada anteriormente realizado são chamadas de Disruptivas. As Inteligências Artificiais construídas a partir de redes neurais e dotadas de uma capacidade comumente chamada Machine Learning podem ser classificadas dessa maneira, uma vez que têm uma infinita e ainda muito pouco mapeada potencialidade de realizar tarefas antes realizadas apenas por humanos, principalmente em sua altíssima capacidade de resposta a problemas até então tidos como impossíveis de serem respondidos computacionalmente.

A revolução trazida por esse tipo de tecnologia reside na aptidão desses algoritmos, quando acompanhados de hardwares de enorme capacidade de processamento, de não apenas apresentarem uma resposta não programada por completo como de aprender novas práticas durante o processamento de grandes quantidades de dados, além de se conseguirem se condicionar a bases de dados previamente processadas como modelo.

Tais práticas podem parecer totalmente adequadas ao pensamento jurídico atual e na obtenção de auxílio aos profissionais no desenvolvimento de tarefas que desafogam as demandas processuais. Tendo em vista que esses softwares podem realizar em segundos uma tarefa que atualmente um assessor jurídico ou mesmo o próprio magistrado levam preciosas horas, esta situação desenvolve especial significado ao se pensar no ordenamento jurídico brasileiro e sua colossal fila processual.

Neste momento os exemplos trazidos pelos escritórios de advocacia e os impressionantes dados de rendimento e economia de tempo são sedutores.  A IA Ross, desenvolvida pela IBM e já em uso no Brasil[i], é capaz de diminuir em até 30%[ii] o gasto de tempo realizado pelos profissionais; o mesmo caso da IA Coin, desenvolvida pela JPMorgan, que, por sua vez, realiza em um ano o que um humano levaria 360 mil horas de trabalho[iii], sendo o equivalente ao trabalho anual de 202 funcionários.

Os números analisados de forma fria chocam e geram uma tendência de aceitação pelo uso dessas tecnologias em tribunais; contudo, há de se salientar uma diferença fundamental no uso de tais ferramentas como parte da estratégia da advocacia em relação a seu uso no Juízo: advogados, em regra, atuam na esfera particular tanto no que tange ao desenvolvimento de estratégias quanto nos contratos com clientes propriamente ditos. Em caso de erros ou mesmo de insatisfação do cliente, as consequências podem ocorrer apenas entre as partes do contrato e podem ser sanadas de diversas formas, de modo que o advogado se resguarda no uso das tecnologias, sob pena de perda do cliente ou eventuais punições por parte do órgão de classe em caso de uso indiscriminado ou erro de software.

Porém, quando trazidas para a realidade do Juízo, as consequências geralmente vão além do caso em questão e os erros podem gerar mais custos ao Estado, pondo em risco a vida, a liberdade, o patrimônio ou outros direitos fundamentais das partes envolvidas no litígio.

As consequências do uso de  IAs na atuação de tribunais podem ser entendidas em meio a exemplos estrangeiros que tornam cristalinos alguns dos riscos a direitos fundamentais que as limitações dessa tecnologia ainda são capazes de trazer ao devido processo legal.

Nos EUA a ONG Propublica trouxe a público em 2016[iv] um estudo sobre a COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) uma IA dotada de Machine Learning e que tem por função traçar a probabilidade de reincidência de réus em diversos Estados e, com ajuda desses números, os juízes proferem sentenças. A IA toma por base, entre outros, a jurisprudência, casos de reincidência e dados sociais da região de residência do réu, para, desta forma, traçar a chance de reincidência; entretanto, foi constatado, no estudo, que a IA atua de maneira a ter uma avaliação mais negativa para homens negros em uma discrepância que chega ao dobro da de homens brancos na mesma situação.

Em um primeiro momento esta avaliação pode ser desconcertante, mas, à luz do modo de funcionamento desses algoritmos essa conclusão se torna menos surpreendente, uma vez que IAs como a COMPAS são desenvolvidas para identificar e dar uma resposta a padrões e comportamentos, nos quais se inserem os preconceitos.

Quando se parte de uma base de dados formada por comportamentos humanos, como a jurisprudência, certos padrões se perpetuam no tempo; no caso acima, esse padrão pode ser o do preconceito racial. Ao se ver diante deste padrão a IA tende a repeti-lo uma vez que numa análise desse gênero não se processa a capacidade de interpretação e senso crítico da máquina ou mesmo a argumentação utilizada pelos advogados. Tais preceitos são postos de lado em troca de se formar o chamado Big Data, um banco de dados que decodifica em números os mais diversos comportamentos humanos.

Ao tentar funcionar como o cérebro humano, uma IA incorre em erros humanos, com uma diferença substancial. Um ser humano pode ser culpabilizado por seus atos, enquanto um software não pode sofrer qualquer tipo de sanção, de modo que seus erros tendem a ter consequências ainda não mapeadas na efetivação dos direitos fundamentais das partes envolvidas.

Devido ao caso COMPAS, começa a se tornar claro que as destacadas capacidades de aprendizado e de respostas “imprevisíveis”[v] por parte dos Softwares de IA podem gerar lacunas legais ou até mesmo transgredir liberdades individuais quando utilizadas nos tribunais.

Cabe aqui ressaltar que a imprevisibilidade dita não é aquela proveniente de uma aleatoriedade, mas sim de ser uma resposta diferente de uma anteriormente dada: quando lidamos com algoritmos comuns, a programação é no sentido de se mapear todo e qualquer tipo de situação possível de ser resolvido pelo programa e a partir disso ele dará uma resposta modelo de acordo com a pensada pelo programador.

Por exemplo, ao se apertar a tecla com o desenho “X” o dispositivo saberá que deve colocar uma letra “X” no texto que o usuário está redigindo, limitando as respostas ao número de teclas que pode receber de estímulo. Todavia, um software dotado de “Machine Learning” criará, assim como o cérebro humano, uma resposta a partir dos dados que foram recebidos e, através de um processo de treinamento, desenvolverá o aprendizado necessário para a realização da tarefa.

Esta capacidade o faz capaz de escrever um texto sobre qualquer tema sem que um ser humano precise efetuar digitação relativa ao assunto a ser abordado. Desta forma, cria-se um salto de capacidade entre o que seria decorrente meramente de resposta para um aprendizado de certa forma próximo ao humano, porém, em um período de tempo muito menor que a curva de aprendizagem de uma inteligência natural.

Como consequência desses aspectos de funcionamento, uma IA também pode trabalhar por analogia, buscando em diversos conjuntos de dados algum tipo de semelhança e desenvolvendo uma resposta, tal qual um modelo de jurisprudência, tendo sido condicionada a um padrão imposto por dados apreendidos anteriormente.

O que podemos nomear como o fundamento da resposta de uma IA é algo irrastreável: sabe-se quais dados são fornecidos à máquina e tem-se a informação de quais resultados são obtidos; mas ao se utilizar os princípios do Machine Learning em um programa, não se tem uma noção completa de como a máquina utilizou esses dados para a obtenção dos resultados, o que, no caso do Direito, pode levar a violações de direitos fundamentais do ser humano.

Tendo em vista a forma de funcionamento das inteligências artificiais e tomando por partida os primeiros paradigmas mapeados ainda na fase introdutória do estudo, a discussão começa a tomar corpo quando se toma conhecimento de Victor, o nome que guarda o poderoso sistema em implementação no STF em parceria com a Universidade de Brasília[vi].

Nomeada em homenagem a Victor Nunes Leal[vii] (Magistrado que criou e implementou as súmulas vinculantes naquela Corte), Victor é uma IA com capacidade de realizar diversas tarefas do Tribunal ao mesmo tempo, desde leitura e processamento de textos até análise e descrição de imagens. Também é capaz de realizar classificações e até mesmo definir se determinadas peças assumem certas características esperadas para que sejam admitidas no STF, tecnicamente poupando tempo e horas de trabalho dos servidores da instituição que, segundo informou a então presidente da casa, Ministra Carmen Lúcia, serão realocados para outras tarefas dentro da organização do Tribunal.

Iniciando seus trabalhos no dia 30 de agosto de 2018[viii] como a primeira IA a atuar diretamente em tribunais do país, Victor tem por tarefa, inicialmente, realizar o processamento; separação de início e fim dos documentos e classificação por matéria da grande maioria dos recursos extraordinários recepcionados pelo Tribunal (atualmente em torno de 95% dos temas são analisados), sem, segundo a ministra, proferir qualquer tipo de sentença. No entanto, faz o juízo de admissibilidade do Recurso Extraordinário, definindo se tal recurso é dotado ou não de repercussão geral, tendo, portanto, capacidade decisória residual em relação à distribuição dos referidos recursos; além disso, é esperado pela equipe que gere o projeto que, em breve, todos os tribunais do país possam se utilizar de Victor para realizar o processamento de seus respectivos REs[ix].

A partir destas atribuições de tarefas e tendo em vista os conceitos de redes neurais, é necessário realizar uma análise com base nos princípios processuais que podem vir a ser perpassados durante os procedimentos realizados por Victor e quais seriam os riscos impostos à garantia dos direitos fundamentais diante das capacidades do software em realizar tais tarefas de maneira satisfatória.

E, a exemplo da COMPAS, ainda recai sobre Victor uma série de dúvidas sobre como seriam suas respostas aos comportamentos da corte a partir de dois aspectos principais:

1) como ocorreria a organicidade na tomada de decisão e mudança de entendimento por parte dos ministros enquanto órgão colegiado em relação à capacidade de treinamento da IA e como introduzir novos padrões a partir de uma decisão vinculante da corte?;

2) quais ferramentas tanto de programação quanto jurídicas capazes de evitar com que Vitor reproduza em seus diagnósticos os mesmos vícios notados no comportamento do software estadunidense?

Como a implementação da IA no STF se deu a partir de agosto de 2018, não há uma gama substancial de resultados obtidos para uma análise acerca de sua implementação.

Porém, uma conclusão preliminar pode ser formulada.

O primeiro direito fundamental que pode ser afetado diretamente é o de acesso à informação, já que, lastreado pelo princípio da fundamentação judicial e da publicidade, toda e qualquer decisão do juízo, mesmo não sendo uma sentença, deveria ser tornada pública acompanhada dos fundamentos que motivaram a tomada da mesma, sob pena de nulidade processual ou mesmo responsabilização do membro do juízo que a determinou.

Quando recai sobre um algoritmo a responsabilidade de determinar tanto se é um caso de repercussão geral quanto qual o tema que o acompanha, há nessa decisão uma necessidade de fundamentação e de entendimento das motivações que levaram o algoritmo a pensar dessa maneira para caso de um questionamento via recurso ou mesmo de validação humana do procedimento. Entretanto, como já observado, a incapacidade de auditabilidade da decisão coloca em xeque essa possibilidade, inclusive gerando obstáculos para o livre exercício do contraditório, pois não fornece ao recorrente material bastante para entendimento do ato e argumentação em sentido oposto.

Humanos, ainda que eventualmente não sejam auditáveis, são culpabilizáveis. Tal característica proporciona um bom desenvolvimento do devido processo legal uma vez que há possibilidade de um recurso ou reexame da decisão por parte do juízo; contudo, não há no ordenamento jurídico brasileiro qualquer tipo de recurso que tenha em vista o questionamento de uma decisão que não tenha sido tomada por um ser humano e tal possibilidade evoca uma série de consequências doutrinárias; seria uma IA capaz de ser igualada a um ser humano a ponto de sua decisão poder ser objeto de recurso?

Neste caso, seriam necessárias alterações ao art. 5º, inc. LIII, da Constituição Federal, que define o princípio do Juiz Natural, para abarcar também os algoritmos? Perguntas até o momento com respostas latentes em nossa experiência jurídica e cujas respostas só o tempo poderá dar.

 

 

Notas e Referências

[i] AGRELA, Lucas. Inteligência artificial da IBM já ajuda advogados brasileiros – Exame. Disponível em https://exame.abril.com.br/tecnologia/inteligencia-artificial-da-ibm-ja-ajuda-advogados-brasileiros/. Acesso em: 13. Nov. 2018.

[ii] BECKER, Daniel; LAMEIRÃO, Pedro. Better call ROSS – Associação Brasileira de Lawtechs & Legaltechs. Disponível em https://www.ab2l.org.br/better-call-ross/. Acesso em 13. Nov. 2018.

[iii] BICUDO, Lucas. Robô faz em segundos o que demorava 360 mil horas para um advogado – Startse. Disponível em https://startse.com/noticia/software-do-jpmorgan. Acesso em: 13. Nov. 2018.

[iv] LARSON, Jeff; ANGWIN, Julia; KIRCHNER, Lauren; MATTU, Surya. Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks. – ProPublica. Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Acesso em: 11. nov. 2018.

[v] FERRARI, Isabela; BECKER, Daniel; WOLFKART, Erik Navarro. “Arbitrium ex machina”: panorama, riscos e a necessidade de regulação das decisões informadas por algoritmos. São Paulo: Revista dos Tribunais, v. 107, n. 995, p. 635-655, set. 2018.

[vi] MAIA FILHO, Mamede Said e JUNQUILHO, Taina Aguiar. “Projeto Victor: perspectivas de aplicação da inteligência artificial ao direito”. Disponível em   sisbib.emnuvens.com.br/direitosegarantias/article/download/1587/pdf. Acesso em 29.Jan.2019. 

[vii] Inteligência artificial vai agilizar a tramitação de processos no STF – Supremo Tribunal Federal. Disponível em http://www.stf.jus.br/portal/cms/verNoticiaDetalhe.asp?idConteudo=380038. Acesso em: 10. Nov. 2018

[viii] Ministra Cármen Lúcia anuncia início de funcionamento do Projeto Victor, de inteligência artificial – Supremo Tribunal Federal. Disponível em http://www.stf.jus.br/portal/cms/verNoticiaDetalhe.asp?idConteudo=388443. Acesso em: 10. out. 2018

[ix] TEIXEIRA, Mateus. STF investe em inteligência artificial para dar celeridade a processos. Disponível em: https://www.jota.info/coberturas-especiais/inova-e-acao/stf-aposta-inteligencia-artificial-celeridade-processos-11122018. Acesso em 29. Jan. 2019.

 

Imagem Ilustrativa do Post: architecture // Foto de: Dale Cruse // Sem alterações

Disponível em: https://www.flickr.com/photos/dalecruse/42107029100/

Licença de uso: https://creativecommons.org/publicdomain/mark/2.0/

O texto é de responsabilidade exclusiva do autor, não representando, necessariamente, a opinião ou posicionamento do Empório do Direito.

Sugestões de leitura