Machine learning

Análise sobre os algoritmos de avaliação de risco

Falta de transparência e possibilidades de enviesamento são alguns dos principais problemas apresentados

avaliação de risco
Crédito: Pexels

Embora haja inúmeras controvérsias sobre o surgimento semântico da palavra “algoritmo”, o seu conceito, na ciência da computação, foi formalizado em 1936 por Alan Turing (Máquina de Turing) e Alonzo Church, os quais conceberam que um algoritmo é um conjunto não ambíguo e ordenado de passos executáveis que definem um processo finito.

Em suma, os algoritmos estão categorizados em programados, aqueles que seguem operações definidas pelo programador e não programados, que usam técnicas conhecidas como aprendizagem de máquina (machine learning); de modo geral, o aprendizado de máquina é uma maneira de alcançar a IA. A divisão da categoria dos algoritmos não programados ocorre da seguinte maneira: (i) supervisionados; (ii) de reforço e (iii) não supervisionados.

Em nosso cotidiano, os algoritmos encontram-se por todas as partes, seja para uma recomendação de produtos pela Amazon ou de algum filme na plataforma da Netflix. Entretanto, em que pese seu grau de assertividade, o uso de algoritmos chegou a um patamar que pode decidir o quão perigoso você é – ou não.

No ano de 2016, o caso Eric Loomis[1] rendeu inúmeras manchetes e chamou atenção da comunidade jurídica. Loomis havia sido condenado a seis anos de prisão e obteve negativa de liberdade condicional com base em um software que indicava que ele apresentaria um alto risco de violência, reincidência e evasão.

A utilização do software privado, COMPAS (Correctional Offender Management Profiling for Alternative Sanction), funciona por meio de um algoritmo secreto ao qual nem os juízes têm acesso. Loomis recorreu à Suprema Corte de Winsconsin, a fim de requerer o acesso aos critérios que levaram o software a classificá-lo como uma pessoa de alto risco.

Por sua vez, os representantes legais da Northpointe Inc. (agora Equivant), desenvolvedora do COMPAS, defenderam que a forma de operação do sistema estaria protegida por segredo industrial. No julgamento foram suscitadas algumas questões delicadas, como o relatório da ONG ProPublica[2], sobre o enviesamento do referido software contra afro-americanos. Entretanto, o recurso de Loomis não logrou êxito tanto na Suprema Corte de Winsconsin como na Suprema Corte Americana.

Em caso mais recente, no Estado do Kansas, o acusado John Walls havia sido avaliado pela ferramenta LSI-R (Level of Service Inventory Revised), software desenvolvido pela empresa canadense Multi-Health Systems que também realiza “avaliação de risco”. Ao pedir para ver os resultados, John recebeu apenas acesso a uma página que resumia suas pontuações gerais; seu pedido para ver as perguntas e respostas específicas e as pontuações associadas a essas perguntas foram negadas. Porém, a Corte de Apelações do Kansas decidiu em favor de John, segundo a qual entendeu que negar o acesso dele à sua avaliação completa do LSI-R tornaria impossível contestar a precisão das informações[3]

Analisando ambos os casos acima, percebe-se a grande controvérsia sobre a utilização dos algoritmos nas cortes americanas. Conforme relatório da EPIC (Eletronic Privacy Information Center)[4], os algoritmos da justiça criminal, são conhecidos por “avaliações de risco” ou “métodos baseados em evidências”, sendo que seu objetivo é prever o futuro de réus e pessoas encarceradas. As ferramentas, na maioria das vezes, realizam as estimativas com base na (i) probabilidade do réu reincidir antes do julgamento (“risco de reincidência”) e (ii) probabilidade de o réu deixar de comparecer no julgamento (“TLC”).

Sendo assim, essas técnicas são utilizadas para definir fiança, determinar sentenças e contribuir para determinações de culpa ou inocência. Muitos desses algoritmos levam em conta características pessoais como idade, sexo, geografia, histórico familiar e status de emprego. Por conseguinte, duas pessoas acusadas do mesmo crime podem receber resultados de fiança ou sentenças diferentes[5].

Os dois casos mencionados são apenas alguns exemplos do que tem sido implementado nos Estados Unidos. Há quem seja a favor e há quem seja contra a utilização destes softwares. Uma das principais críticas gira em torno da possibilidade de enviesamento dos algoritmos e à falta de transparência.

A título de exemplo, sobre a possibilidade de enviesamento, existem evidências de que, apesar das taxas similares de uso de drogas, os americanos negros são presos quatro vezes mais do que os americanos brancos por acusações relacionadas à droga. Supondo que os engenheiros coletassem fielmente esses dados e treinassem em um modelo de aprendizado de máquina, a IA ainda pegaria o viés incorporado como parte do modelo[6].

A falta de transparência e até mesmo a explicabilidade, se dá ao fato desses algoritmos serem verdadeiras caixas-pretas. Até os juízes, que se baseavam nessas avaliações de risco, geralmente não entendiam como as pontuações eram calculadas. Conforme explica Isabela Ferrari[7], o mero acesso ao código-fonte não responde como o programa parte dos inputs para chegar ao resultado, ou seja, não permite aprender o seu processo decisório.

Em contrapartida, alguns estudos[8] demonstraram que a utilização dos algoritmos para essa finalidade poderia gerar impacto positivo. Isto pelo fato dos algoritmos combaterem decisões tendenciosas, deixando de lado as intuições e preferência pessoal de cada juiz.

________________________________________________________________________________________

[1] https://www.nytimes.com/2016/06/23/us/backlash-in-wisconsin-against-using-data-to-foretell-defendants-futures.html.

[2] https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

[3] https://www.brookings.edu/blog/techtank/2019/03/21/algorithms-and-sentencing-what-does-due-process-require/

[4] https://epic.org/algorithmic-transparency/crim-justice/

[5] https://epic.org/algorithmic-transparency/crim-justice/

[6] https://www.weforum.org/agenda/2018/11/algorithms-court-criminals-jail-time-fair/

[7] FERRARI, Isabela. Disponível em: < https://itsrio.org/wp-content/uploads/2019/03/Isabela-Ferrari.pdf>

[8] https://www.nytimes.com/2017/12/20/upshot/algorithms-bail-criminal-justice-system.html

Sair da versão mobile