Dados

Lançamento

JOTA lança Aprovômetro de projetos legislativos

Ferramenta de machine learning é capaz de inferir a probabilidade de aprovação de qualquer projeto no Congresso

Logo do Aprovômetro / Crédito: Juliana Moreira

O JOTA lança para os assinantes PRO o seu aprovômetro, uma ferramenta de machine learning capaz de inferir a probabilidade de aprovação de projetos em tramitação no Senado ou na Câmara.

O banco de dados de proposições legislativas coligido pelo JOTA contém quase a totalidade dos registros de tramitação das proposições legislativas apresentadas na Câmara dos Deputados e no Senado Federal no período de 1934 a 2019, totalizando mais 123 mil proposições.

Apenas uma amostra do total dos projetos foi utilizada para treinar um algoritmo avançado de aprendizado de máquina (machine learning) para classificar os projetos de acordo com a probabilidade de serem convertidos em lei.

O algoritmo também leva em consideração o tipo de proposição legislativa, focando nos seguintes tipos: PEC, PL, PLP, PLC, PLS, PLV. Portanto, MPV, projetos de resolução, de decreto legislativo, indicações, requerimentos, recursos etc, não são considerados pela máquina.

Além das chances de aprovação de cada projeto, a ferramenta também produz outras estatísticas e realiza comparações entre projetos sobre o mesmo tema, entre parlamentares e partidos.

O tempo médio de tramitação dos projetos convertidos em lei é de 45 meses para PECs, 41 meses para PL/PLS, e de 39 meses para PLP. Já para os projetos arquivados, a média é de 67 meses, 50 meses e 47 meses, respectivamente.

O modelo

O modelo de classificação não supervisionada desenvolvido pelo JOTA aplica uma implementação da família de algoritmos avançados de aprendizado de máquina, Gradient Boosting Machine (GBM), para modelar os dados e metadados das proposições legislativas em tramitação e estimar as chances de aprovação de cada projeto de lei.

O modelo que é baseado em algoritmos de árvores de decisão, produz um conjunto de árvores de decisão “fracas”, na qual os preditores não são treinados independentemente (como acontece em modelos construídos com a técnica de Random Forest), mas em sequência. Em cada interação, a máquina aprende de forma indutiva a sequência das árvores de decisão que melhor ajustam os preditores, reduzindo ao máximo os gradientes negativos (também conhecidos como erros residuais). Quando a multidão de árvores fracas e sucessivas é combinada, produz um “consenso” de modelos preditivos bastante forte, difícil de ser obtido com outras famílias de algoritmos de árvore de decisão.

Esse é um ponto importante, porque as técnicas de classificação que utilizam algoritmos de Random Forest são frequentemente rotuladas como métodos “caixas pretas”, devido a complexidade do funcionamento interno desses modelos, o que acaba dificultando a interpretação humana. Por outro lado, no JOTA Labs nós acreditamos que a capacidade de interpretação do modelo é crucial para a sua adoção no ambiente de negócios e para que seus processos possam ser documentados e supervisionados, desenvolvendo a confiança humana em relação à máquina a partir da explicação de previsões ainda que individuais.