Opinião & Análise

Tecnologia

Introdução à aplicação da Inteligência Artificial no Judiciário

Conflitos da IA e o ordenamento jurídico brasileiro

Imagem: Pixabay

1. Introdução

1.1 Uso da Inteligência Artificial no Sistema Jurídico Atual

Em 2018, a então Presidente do Supremo Tribunal Federal, a Ministra Drª Cármen Lúcia, anunciou, ao final de uma sessão plenária, que o STF contaria com um “novo integrante”: o Victor1.

O Victor é um projeto desenvolvidos por estudantes da UNB, criado para identificar e classificar processos em temas de Repercussão Geral, no STF. Em determinado momento percebeu-se a necessidade de identificar, dentro do processo, as peças chave para classificação do processo como um todo.

A equipe de Direito do projeto teve de criar conjuntos paradigmas, classificando cada tipo de peça processual que precisaria ser identificada dentro do processo judicial, pelo Victor. O Programa passou a utilizar os padrões fornecidos pelo conjunto paradigma para analisar a estrutura do corpo textual de determinada peça dentro do processo e dizer se aquilo se tratava de Acórdão, Recurso Extraordinário, Agravo em Recurso Extraordinário, despacho, sentença ou outros. Conforme o volume de dados fornecidos ao algoritmo através da análise de processos judiciais cresce, igualmente cresce a capacidade de indicar com maior precisão as peças processuais, uma vez que além dos padrões paradigmas fornecidos, o próprio algoritmo passa a analisar o processo em busca de padrões distintos. É a junção do Aprendizado Assistido e do Não Assistido.

Com esses dados em mãos, o Victor pode fornecer à equipe de analistas do STF as informações de onde se encontra cada peça processual nos autos para que possam proceder a análise dos requisitos de admissibilidade, e ainda, indicar, por análise própria do sistema, se aquele processo trata-se de Repercussão Geral ou não.

Destaco que, atualmente, o Victor em momento algum realiza qualquer juízo de mérito, bem como não profere nenhum tipo de decisão, de qualquer natureza. Ele apenas indica ao responsável pela separação de processos tema de repercussão geral, quais são e quais não são.

Mas, o que nos garante que, em um breve futuro, esse Programa não venha a fazer juízo de mérito e, eventualmente, julgar a lide?

2. Desenvolvimento

2.1 Impactos da Inteligência Artificial na Sociedade

Atualmente, estamos sendo cada dia mais afetados pela presença de algoritmos de I.A. em nosso cotidiano. Diversas áreas da nossa rotina foram modificadas, tais como: transporte, moradia, compras, marketing, entretenimento. Por trás de tudo isso existe uma infinidade de situações que são obra de algoritmos que a cada dia se tornam mais avançados.

Grande parte do crescimento acelerado da presença de algum tipo de algoritmo inteligente se dá pela crescente necessidade de automatizar tarefas, assim como foi feito no Supremo Tribunal Federal, através do Victor.

Você, muito provavelmente, já se encontrou em uma situação onde pesquisou um assunto na web, ou apenas clicou em um link, e quase que imediatamente os anúncios das páginas que você costuma visitar passaram a exibir algum tipo de anúncio relacionado ao tópico que você acabou de pesquisar. Se você chegou até aqui, já deve imaginar que isso é obra de algum tipo de I.A., e sim, você está certo.

O grande questionamento que surge, gira em torno da regulamentação de tudo isso. As leis e normas que regulam o convívio são um reflexo direto da sociedade e da forma que ela se organiza, logo, questiona se seria o Estado, com sua atual estrutura altamente burocrática, seja no Poder que for, capaz de acompanhar tais mudanças? O que será necessário para que o Estado não restrinja a capacidade evolutiva da sociedade?

2.2 Inteligência Artificial e o Poder Judiciário

A Inteligência Artificial (I.A.) pode ser aplicada na área jurídica, atuando em diversos ramos do Direito, como, por exemplo, advocacia, magistratura, fórum, etc.

Em países como Inglaterra e, principalmente, Estados Unidos, a I.A. já é de grande valia e auxilia os mais diversos profissionais da área na elaboração de petições, pesquisas de jurisprudências, elaboração de sentenças, preenchimento de formulários e demais funções.

Em que pese o foco da I.A. não ser o Judiciário, seu uso tem crescido exponencialmente, surgindo até “advogados robôs”, como o “DoNotPay2, criado por um jovem britânico, que já atuou em mais de 160 mil casos, auxiliando motoristas que se sentiram injustiçados por terem levado multas. Este programa analisa o caso fazendo uma série de perguntas sobre o ocorrido e também sobre quem o requerente deseja processar e, em seguida, gera os documentos necessários para que o autor apresente junto ao Tribunal e dê início ao processo. A frase usada pelo criador chamou a atenção dos usuários: “Processe qualquer um pressionando um botão”.

De acordo com os advogados Coriolano Camargo e Marcelo Crespo, “Visto isso, é inegável que exista um enorme horizonte para a inteligência artificial, inclusive no âmbito legal e, portanto, muitas questões éticas e interesses permeando esta situação. Por exemplo, há sistemas desenvolvidos com base no computador cognitivo Watson da IBM. Um destes sistemas é o Ross, construído para atuar como advogado destinado a auxiliar com as pesquisas jurídicas e que se vale de aprendizagem mecânica e linguagem natural.3

Além da área da advocacia, tem crescido a utilização de algoritmos no ramo da magistratura. A título de exemplo, podemos citar o programa COMPAS, que atua como um auxiliar do juiz, analisando casos criminais e dando uma pontuação para o réu com base em sua vida, escolaridade, vínculos sociais, utilização de drogas, antecedentes criminais, conduta, [etnia], possibilidade de reincidência, etc. 4

O Compas utiliza os dados fornecidos para atribuir uma nota ao réu, classificando-o com baixo, médio ou alto risco de reincidência. O magistrado, por sua vez, com base utiliza a análise entregue pelo algoritmo para sentenciar o indivíduo.

Acontece que diversas decisões feitas pelo programa foram racistas, atribuindo notas mais baixas para pessoas negras. Em 2016, o jornal independente norte-americano ProPublica fez um estudo5 de mais de 7 mil casos ‘julgados’ pelo Compas entre 2013 e 2014, e analisou os dois anos subsequentes dos réus que terminaram de cumprir suas penas, a fim de verificar a conduta de cada indivíduo, como o programa também faz.

O estudo concluiu que o algoritmo é mais duas vezes suscetível a denunciar erroneamente réus negros como possíveis reincidentes, se comparado aos réus de etnia branca. A matéria mostra cinco casos em que o indivíduo branco tinha antecedentes criminais piores e que, depois, vieram a cometer outros crimes em até dois anos após o cumprimento da pena; mas que foram classificados com pontuações mais baixas e com periculosidade considerada baixa, enquanto os condenados negros, por mais que tivessem antecedentes criminais mais brandos e não viessem a reincidir, o algoritmo os classificou com pontuações altas e os incluiu nos índices de mais periculosidade.

Na área legal, grandes escritórios de advocacia têm usufruído de máquinas para automatizar os seus processos mais simples, como preenchimentos de formulários, cálculos processuais, elaboração de contratos e petições iniciais, como é o caso do escritório pernambucano “Advocacia Urbano Vitalino”, que utiliza o Watson, software desenvolvido pela IBM, para atuar no ramo advocatício.

É válido ressaltar o comentário pelo Drº Eduardo Magrani, coordenador do Instituto de Tecnologia e Sociedade do Rio (ITS Rio): “Com a internet, a gente usa inteligência artificial o tempo todo. Quando surge qualquer dúvida hoje, corremos para o Google. E o buscador do Google é uma inteligência artificial, ele trabalha com algoritmos. É que a gente tem uma ideia errada do que é Inteligência Artificial e não percebemos a presença dela no dia a dia6.

2.3 Reflexos da I.A. no Ordenamento Jurídico

Focando mais nos aspectos jurídicos, é necessário ressaltar que a Inteligência Artificial terá, sobretudo, um forte impacto na seara legal, pois a tecnologia conflitará com diversos campos: civil, penal, administrativo, trabalhista, constitucional, etc. Tanto materialmente quanto processualmente.

Basicamente o reflexo da I.A. começa a partir de sua ‘alimentação’: dados pessoais.

Como explicado anteriormente todo algoritmo necessita de uma base de dados ou de coleta de dados para que possa desenvolver sua rede neural e, futuramente, aprimorá-la. Tais dados serão essenciais para que o algoritmo possa desempenhar a sua função de maneira adequada, por exemplo: o NuBank analisa seu histórico de crédito, inadimplementos, serasa, compras, salário e etc, para decidir se irá conceder ou não, para você, o tão famoso “cartão roxinho”. O algoritmo poderá decidir por não efetuar a liberação do cartão, caso dados incorretos apontem você como um possível mau pagador, que, provavelmente, virá a não honram com o pagamento de eventuais faturas da empresa.

Inclusive sistemas públicos podem ser facilmente hackeados como o ocorreu no recente vazamento de dados do CNJ – Conselho Nacional de Justiça7, que expôs milhares de pessoas. Foi a partir do conhecimento da geração de dados em massa e também dos escândalos de vazamentos de dados, como o que envolveu a Cambridge Analytica e o Facebook8, que o Legislativo brasileiro deu andamento ao projeto de lei nº 53/2018, que hoje chama-se Lei Geral de Proteção de Dados (Lei nº 13.709/18).

Tal Lei tem fulcro nos princípios constitucionais da privacidade, dignidade da pessoa humana, isonomia, liberdade, e tem como fundamentos diversos aspectos, que são tratados em seu Art. 2º. Essa norma tem como finalidade a proteção dos dados pessoais de todos cidadãos brasileiros, a fim de evitar que o controlador e operador cometam abuso no tratamento dos dados fornecidos pelos usuários.

Outro ponto que representa parcela expressiva dos embates jurídicos, seja na doutrina, seja nos processos, é o campo da responsabilidade civil. A partir do momento que um robô (IA) toma decisões por si próprio, estas pautadas em construções e fins exclusivamente lógicos – que não refletem a construção social que nós humanos somos submetidos ao longo do desenvolvimento e que não levam em consideração impactos colaterais da sua decisão – impacta diretamente construções e teses jurídicas que hoje temos como pacíficas.

Exemplificando, atualmente, em um acidente de carro, fica bastante simples entender o que aconteceu, porque aconteceu, e indicar o responsável pelas reparações. Porém, é cada vez mais comum a automação do trânsito, principalmente após a entrada da Tesla no mercado, onde é o carro que toma as decisões.

Na iminência de um acidente, quem o carro deverá preservar? A vida do condutor-passageiro ou do pedestre que atravessa de forma repentina? Quem deverá ser responsabilizado por eventuais danos? A montadora, que é a responsável pela criação e manutenção do algoritmo de direção autônoma, ou o proprietário do veículo, que em muitas vezes não poderá fazer nada ou então nem mesmo estava presente quando do acidente? Levando em consideração que atualmente tais veículos já se locomovem por si próprios, sem a necessidade de um motorista humano presente.

Podemos ressaltar, também, que, na seara jurisdicional, a discussão acerca da legitimidade do uso de I.A. será importante, pois fere o princípio do juiz natural, visto que o trabalho tão somente da máquina não pode ser considerado como válido, devido ao fato de que as decisões devem vir de um magistrado.

Ademais, cabe questionar acerca do princípio da motivação das decisões judiciais, que encontra-se no Art. 93, inciso IX, da Constituição Federal. Se o magistrado viesse a analisar a decisão elaborada pela I.A? Isso validaria a decisão automatizada?

A Lei Geral de Proteção de Dados (LGPD) traz, em seu Artigo 20, o chamado right to explanation, o direito à explicação, que refere-se ao direito que o titular dos dados tem de solicitar uma revisão, por pessoa humana, das decisões tomadas de maneira automatizada somente com base nos dados pessoais. Com base neste artigo da LGPD, abre-se um leque amplo para que o indivíduo solicite, sempre que necessário, revisões sobre quaisquer decisões automatizadas.

Este direito é essencial, pois reforça a soberania que o titular tem sobre seus dados e que nenhuma decisão poderá ser tomada meramente com base nestas informações, evitando, assim, julgamento errôneos e tendenciosos, como vistos no caso do programa Compas. Entretanto, isso pode influenciar de maneira negativa o uso da inteligência artificial, pois sua aplicação servirá, principalmente, para uma resolução mais célere dos 80 milhões de processos judiciais que o Brasil possui. Ao invés de facilitar as decisões, poderá atrapalhar, visto que as partes poderão peticionar pelo direito a explicação, fazendo com que o processo volte à estaca zero: dependendo tão somente da análise tradicional feita pelo magistrado e sua equipe.

A transparência, ética e o bom senso serão pilares essenciais para que a I.A. possa ser aplicada de maneira correta no poder judiciário. A transparência será mais que essencial, pois será através dela que os magistrados e o CNJ encontrarão fulcro para a legitimidade e segurança jurídica na utilização de algoritmos para auxiliar os juízes em suas decisões.

Obviamente os ‘juízes digitais’ serão facilitadores, analisando os casos e produzindo decisões, com base nos julgados da respectiva vara e também dos tribunais de instâncias superiores, para que o juiz possa apenas analisar o caso concreto e perceber se tal sentença ou despacho está de acordo com as leis e jurisprudências.

Finalizando este tópico, cabe ressaltar um questionamento: o código fonte da inteligência artificial deverá ser público ou trata-se de segredo de negócio?

A Northpointe, desenvolvedora do Compas, foi objetiva, dizendo que não poderia informar aos réus a programação que utilizava para que a máquina decidisse, pois faz parte do seu know-how e, portanto, não divulgaram. Obviamente esta atitude feriu o princípio do devido processo legal, pois a falta de transparência dificulta o entendimento do raciocínio que levou àquela decisão.

De acordo com o Drº Marcelo Crespo, “[…] é fundamental discutir e pensar criticamente sobre possíveis “arbitrariedades algorítmicas”, ainda que com algum respaldo de decisões humanas.9

3. Conclusão

3.1 Conflitos da Inteligência Artificial e o Ordenamento Jurídico Brasileiro

Se formos analisar o princípio do Juiz Natural e levá-lo à risca, seria possível a aplicação de I.A. ao poder judiciário? Após toda dissertação acima, é possível chegar a uma conclusão se a máquina realmente viciaria a decisão judicial? E um estagiário que faz sentença, isso é semelhante à I.A.?

O presente tópico é conclusivo, porém é válido levantar questionamentos, vez que o ordenamento jurídico (ainda) não está preparado para avanço tecnológico, muito menos para que este seja totalmente automatizado, como se espera em um futuro

Sabe-se que a jurisdição conta com 7 princípios norteadores, sendo eles: (i) investidura, (ii) aderência ao território, (iii) indelegabilidade, (iv) inevitabilidade, (v) indeclinabilidade, (vi) juiz natural, e (vii) inércia.

Tomando como base tais princípios, quais deles seriam mais mitigados se houvesse a aplicação da Inteligência Artificial? Isso causaria alguma instabilidade jurídica? Será a partir destes questionamentos que iremos nortear a criação dos padrões de ética para a aplicação da I.A. no poder judiciário brasileiro.

Será que existe, hoje, uma ferramenta processual a fim de permitir ao operador do direito, quem seja ele, requerer a revisão de eventual decisão proferida com base em sugestões de uma I.A ? Estaria o tribunal ou o magistrado que profere a decisão, pautada em “sugestões” de I.A, obrigado a informar os critérios utilizados pela máquina para realizar o “julgamento”? Acreditamos que a resposta para ambos os questionamentos seja não, pelo fato de que a lei que regula, especificamente, a atuação de I.A e de automação no Judiciário, (ainda) não existe.

Mesmo que a Lei para contratação de empresas especializadas em promover a implementação e automatização do Judiciário e demais órgãos exista, ela é extremamente genérica, dando apenas diretrizes quanto à contratação de serviços, e não sobre a atuação da tecnologia na estrutura e desenvolvimento do trabalho da administração pública, fato que nos leva a novo questionamento: Como ficaria a segurança, não só jurídica, mas operacional do País? Como ficaria a segurança dos sistemas, uma vez que, certamente, a tecnologia não é, de forma alguma, a prova de falhas, bugs e vulnerabilidades que permitam ataques por hackers, principalmente em âmbito do Poder Público?

 

Bibliografia

CRESPO, M. Algoritmos, reincidência e o Direito Penal. Disponível em: <http://www.academia.edu/30028483/Algoritmos_reincidência_e_o_Direito_Penal>

ANGWIN, J. et al. Machine Bias. Disponível em: <https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing>

ANGWIN, J. et al. What Algorithmic Injustice Looks Like in Real Life. Disponível em: <https://www.propublica.org/article/what-algorithmic-injustice-looks-like-in-real-life?utm_campaign=sprout&utm_medium=social&utm_source=facebook&utm_content=1464191771>

CRESPO, MARCELO; CAMARGO, CORIOLANO A. A. Inteligência artificial, tecnologia e o Direito: o debate não pode esperar!. Disponível em: <https://www.migalhas.com.br/DireitoDigital/105,MI249734,41046-Inteligencia+artificial+tecnologia+e+o+Direito+o+debate+nao+pode>

Máquina que pensa – Eduardo Magrani. Disponível em: <http://eduardomagrani.com/maquina-que-pensa/>

POR FELIPE PAYÃO | @FELIPEPAYAO. Vazam dados do Conselho Nacional de Justiça; usuários e senhas. Disponível em: <http://www.tecmundo.com.br/seguranca/140021-vazam-dados-conselho-nacional-justica-usuarios-senhas.htm>

PORTER, J. Robot lawyer DoNotPay now lets you ‘sue anyone’ via an app. Disponível em:<https://www.theverge.com/2018/10/10/17959874/donotpay-do-not-pay-robot-lawyer-ios-app-joshua-browder>

SUMARES, G. Cambridge Analytica: tudo sobre o esc. Disponível em: <https://olhardigital.com.br/noticia/cambridge-analytica/74724>

Ministra Cármen Lúcia anuncia início de funcionamento do Projeto Victor, de inteligência artificial. Disponível em: <http://www.stf.jus.br/portal/cms/verNoticiaDetalhe.asp?idConteudo=388443>

 

 

——————————–

1 “Notícias STF :: STF – Supremo Tribunal Federal.” 30 ago. 2018, http://www.stf.jus.br/portal/cms/verNoticiaDetalhe.asp?idConteudo=388443.

2 “Robot lawyer DoNotPay now lets you ‘sue anyone’ via an app ” 20 jan. 2015, https://www.theverge.com/2018/10/10/17959874/donotpay-do-not-pay-robot-lawyer-ios-app-joshua-browder.

3 “Inteligência artificial, tecnologia e o Direito: o debate não pode ….” 30 nov. 2016, https://www.migalhas.com.br/DireitoDigital/105,MI249734,41046-Inteligencia+artificial+tecnologia+e+o+Direito+o+debate+nao+pode.

6 “Máquina que pensa – Eduardo Magrani.” 21 mar. 2018, http://eduardomagrani.com/maquina-que-pensa/.

7 “Vazam dados do Conselho Nacional de Justiça; usuários e senhas ….” 1 abr. 2019, https://www.tecmundo.com.br/seguranca/140021-vazam-dados-conselho-nacional-justica-usuarios-senhas.htm.

8 “Cambridge Analytica: tudo sobre o escândalo do … – Olhar Digital.” 22 mar. 2018, https://olhardigital.com.br/noticia/cambridge-analytica/74724.

9 “Algoritmos, reincidência e o Direito Penal. Crespo, Marcelo. 22, nov. 2016.

http://www.academia.edu/30028483/Algoritmos_reincid%C3%AAncia_e_o_Direito_Penal.


Cadastre-se e leia 10 matérias/mês de graça e receba conteúdo especializado

Cadastro Gratuito