Constituição, Empresa e Mercado

Análise

A importância da análise de consequências para a regulação jurídica – Parte II

Perspectivas e riscos do consequencialismo e do ‘consequenciachismo’

No seu livro 'A Lógica do Cisne Negro', Nassim Taleb mostra o alto impacto de eventos raros na história. Imagem: Pixabay

Como o primeiro artigo da série procurou demonstrar, as recentes alterações trazidas pela Lei nº 13.655/2018 em relação à LINDB não adotaram propriamente o consequencialismo pois, ainda que tenham enfatizado a necessidade de se analisar as consequências das decisões, mantiveram os demais elementos do raciocínio jurídico tradicional, os quais devem continuar a ser considerados na interpretação e na aplicação do direito.

Também se procurou demonstrar que a análise de consequências, ainda que muito importante, precisa ser feita com cautela e responsabilidade, pois a estimação e mensuração dos efeitos de determinadas decisões é algo que está está longe de ser banal.

Daí as limitações de uma série de métodos quantitativos, incluindo a econometria, que normalmente se baseiam em premissas reducionistas e duvidosas, muitas vezes impregnadas de vieses e ideologias.

Não obstante, os métodos quantitativos e os estudos amparados em modelos matemáticos vêm exercendo grande fascínio sobre os juristas, na medida em que transmitem aura de cientificidade, imparcialidade e objetividade, sendo apresentados como um verdadeiro contraponto ao tradicional raciocínio jurídico, visto como excessivamente subjetivo.

Ocorre que, em se tratando da análise de fatos humanos, não há propriamente objetividade, já que o “observador” não é isento nem imparcial em relação aos fatos, até porque os vê, seleciona, prioriza e compreende a partir de suas pré-compreensões. A própria teoria de que parte o cientista funciona como poderosa lente, que poderá realçar ou superdimensionar os fatos que ele procura e amesquinhar ou mesmo neutralizar os fatos que ele não procura ou aqueles para os quais não dá a devida importância.

Não é sem razão que muito se discute, mesmo no âmbito jurídico, a artificialidade da separação entre questões de fato e de direito, pois são o enquadramento e a relevância jurídicos que permitem identificar os fatos que têm importância para a análise.

Observa-se, portanto, que, mesmo nas análises empíricas, a própria seleção dos fatos já exige uma importante escolha por parte do cientista, passo que está longe de ser realizado sob perspectiva exclusivamente técnica, neutra e objetiva.

Além disso, a tentativa de se compreender e estimar os efeitos de tais fatos a partir de modelos matemáticos também enfrenta desafios. Como advertia Hannah Arendt1, a linguagem matemática não pode ser reconvertida em palavras, de forma que a sua utilização nos assuntos humanos gera um perigoso impasse, até porque tudo o que os homens fazem, sabem ou experimentam só tem sentido na medida em que pode ser discutido.

Ao serem convertidos em números, os seres humanos são analiticamente igualados ou incluídos em grandes grupos, perdendo muito da sua individualidade. Por mais que seja importante esse tipo de generalização, é importante não perder de vista os seus riscos. Se é é legítimo que a ciência busque reduzir a complexidade, utilizando-se de métodos necessariamente parciais, é fundamental lembrar dessas limitações ao se analisar os resultados dos referidos modelos.

A própria utilização das estatísticas apresenta também seus desafios, como já foi abordado em outra oportunidade2. Em recente e interessantíssimo livro, Judea Pearl e Dana McKenzie3 mostram que, ironicamente, embora a necessidade de uma teoria da causa tenha surgido com a estatística, esta logo passou a trilhar um caminho independente, fetichizando a observação do senso comum. Ademais, embora a estatística reconheça que correlação não é causalidade, acaba não tendo instrumental para dizer o que é a causa.

Daí a conclusão dos autores de que a estatística clássica, ao apenas sumarizar dados, acabou se autoinfligindo uma cegueira à causalidade, com consequências preocupantes para todas as ciências que trabalham com dados, problema que não se resolverá nem mesmo com o big data, porque dados não entendem causas e efeitos, mas sim seres humanos.

Logo, há dificuldades naturais para a aplicação da matemática e da estatística nos assuntos humanos, ainda mais quando o objetivo do cientista é extrair relações de causa e efeito que serão depois utilizadas como vetores de predições e análises de consequências.

Ademais, os modelos quantitativos estão sujeitos também a muitos riscos de adulterações e desvirtuamentos. Segundo Jerry Muller4, dentre as distorções das análises quantitativas estão (i) quantificar somente o que é mais facilmente quantificável, (ii) quantificar o mais simples quando o resultado desejado é complexo, (iii) quantificar inputs ao invés de outputs, (iv) degradar a qualidade da informação por meio da estandardização, (v) aumentar números diminuindo standards ou por meio da omissão ou distorção de dados ou mesmo (vi) a trapaça.

Todos nós temos vários exemplos de situações corriqueiras em que isso acontece. Um é o que acontece com as companhias aéreas, que aumentam artificialmente o tempo dos voos para que, mesmo com pequenos atrasos, continuem cumprindo as metas de pontualidade. Com isso, atendem aos standards quantitativos por meio de artifício que as permite ter atrasos de até 20 minutos sem qualquer alteração na sua avaliação.

Algo semelhante pode ser observado em índices quantitativos que são hoje usados medir as performances de juízes e professores. Em muitos casos, criam incentivos para atingir determinadas métricas – número de processos julgados em caso de juízes e número de atividades acadêmicas e publicações em casos de acadêmicos – que, por mais paradoxal que seja, nem refletem necessariamente a quantidade do trabalho nem – muito menos – a qualidade do trabalho. Pelo contrário, em muitos casos o atendimento das métricas quantitativas ocorre em prejuízo direto da qualidade.

Isso nos faz lembrar da famosa Lei de Donald Campbell5, segundo a qual, quanto mais um indicador social é usado para o processo decisório, mais se torna suscetível a pressões corruptivas e mais será apto será para distorcer e corromper o processo para o qual ele é destinado a monitorar.

As considerações aqui expostas não têm por finalidade questionar o mérito das análises quantitativas e das estatísticas, que, se bem utilizadas, podem apresentar significativas contribuições em vários aspectos dos assuntos humanos, inclusive na estimação de consequências de determinadas decisões ou políticas.

O objetivo da crítica é mostrar que métodos quantitativos não apresentam a objetividade que muitas vezes se lhes atribui, sendo também suscetíveis a vieses, ideologias, simplificações, manipulações e distorções.

Da mesma forma, não se quer negar, com isso, os problemas das análises meramente qualitativas e das discussões sobre valores, as quais normalmente estão carregadas de bastante subjetividade.

No caso específico do direito, inclusive, essa excessiva subjetividade tem resvalado frequentemente para o irracionalismo, o voluntarismo e o abuso de princípios, com grandes dificuldades para garantir segurança jurídica e fazer prognoses ou predições minimamente confiáveis.

Tais excessos têm ocorrido também em outras searas. No seu livro Expert Political Judgment, Philip Tetlock6 mostra que (i) pessoas que passam o tempo e ganham a vida estudando determinado assunto produzem previsões menos exatas do que macacos jogando dardo ou do que se tivessem distribuído suas escolhas uniformemente pelas opções, (ii) os que conhecem mais fazem prognósticos apenas ligeiramente melhores e (iii) as pessoas que adquirem conhecimentos em determinada área desenvolvem uma “ilusão” acentuada de sua habilidade e se tornam “superconfiantes”, passando também a ter mais dificuldades para admitir seus erros.

Em obra em coatoria com Dan Gardner, Philip Tetlok7 faz uma crítica à utilização de modelos preditivos, mostrando que especialistas em economia e política costumam errar, em média, 85% de suas previsões de longo prazo. Nesse ponto, os autores mostram as dificuldades de lidar com o longo prazo, mostrando que, quanto menor o prazo, maior a chance de acerto.

Outras conclusões importantes são as de que: (i) bons analistas são céticos, ecléticos e costumam coletar uma grande quantidade de informações; (ii) analistas que tendem a organizar o seu raciocínio em torno de grandes ideias são normalmente guiados por pensamentos ideológicos, de forma que, mesmo quando seus prognósticos fracassam, mostram-se relutantes em mudar de ideia e (iii) analistas guiados por pensamento ideológico procuram enquadrar o problema em seus modelos e tratam o resto como algo irrelevante.

A crítica dos autores mostra, portanto, como as predições estão vinculadas ao arcabouço teórico e a visão de mundo de que parte o analista. Em muitos casos, as pré-compreensões dos agentes geram uma cegueira artificial que os impede de ver qualquer coisa além dos seus pressupostos.

O papel da teoria e das pre-compreensões é, portanto, fundamental para qualquer tipo de predição, seja ela quantitativa ou não. Quando, diante da crise financeira de 2008, a Rainha Elizabeth perguntou aos economistas da London School of Economics por que ninguém tinha previsto a crise8, uma resposta possível é a de que a teoria econômica do mainstream não permitia essa previsão.

Daí a crítica de Richard Bookstaber9 de que, de acordo com a teoria econômica prevalecente, tudo é racional até que não seja, pois são ignorados elementos centrais da natureza humana e os limites que eles implicam: na verdade, a complexidade das nossas interações não pode ser descrita pela matemática dedutiva que forma a base – ou mesmo a razão de ser – do modelo dominante na economia atual.

Independentemente das limitações decorrentes da teoria de base de que parte o cientista, ainda há de se ter, na difícil missão de tentar antecipar o futuro, certa margem para o inesperado e o imprevisto. No seu famoso livro, A Lógica do Cisne Negro, Nassim Taleb10 mostra o alto o impacto de eventos raros na história. Na verdade, o “cisne negro” é um evento com três características altamente improváveis: é imprevisível, ocasiona resultados impactantes e, após sua ocorrência, os homens inventam uma narrativa para que seja menos aleatório e mais explicável.

Segundo Nassim Taleb, ao não aceitar tais premissas, gera-se uma falsa sensação de segurança, que possibilita a criação de sistemas frágeis a eventos extremos. Daí a sua conclusão de que, em geral, os seres humanos se limitam a aprender conteúdos específicos em vez de adquirir sabedoria em diversas áreas do conhecimento, concentram-se no que já sabem e evitam o desconhecido. Isso leva à incapacidade de enxergar oportunidades e à vulnerabilidade diante do impulso de simplificar, categorizar e não valorizar o impossível. Entretanto, os grandes eventos chegam, surpreendendo todos e transformando a sociedade.

Em decorrência, há limites claros para as predições e análises consequencialistas, motivo pelo qual é fundamental que metodologias sejam constantemente colocadas sob escrutínio, a fim de evitar a falsa sensação de segurança a que se refere Taleb.

Por fim, ainda há importante aspecto político nesse tipo de discussão. Como adverte Walter Eucken11, grupos de pressão ganham significativamente em poder e influência quando existem intelectuais à sua disposição para trabalhar em suas ideologias. Aliás, segundo o autor, o conjunto da história intelectual da humanidade é repleto de tentativas de assegurar e apoiar as pretensões do poder por meio da ideologia, motivo pelo qual teorias científicas são também usadas como armas ideológicas.

Esse último ponto é especialmente importante, porque mostra que a produção do conhecimento e a maior aceitação de determinadas teorias sobre as outras nem sempre é resultado apenas do processo rigorosamente científico e do embate intelectual entre ideias. Há uma complexa interação entre conhecimento, poder, ideologia e networks, como a sociologia já procura destacar há bastante tempo, embora tais advertências nem sempre sejam devidamente consideradas no debate público.

Dessa maneira, fica claro que a análise de consequências, tanto qualitativa quanto quantitativa, somente pode ser implementada por meio de uma postura de humildade intelectual, que reconheça a falibilidade e as limitações desse tipo de análise, que relacione as teorias e os métodos com as ideologias e as estruturas de poder a quem interessam e que sejam submetidas a constante escrutínio. Sem isso, os riscos de resultados parciais, precários, manifestamente equivocados e mesmo comprometedores é alto.

Tais aspectos não podem ser ignorados no necessário caminho que o direito precisa encontrar para ter maior consistência e racionalidade. Se é necessário avançar no diálogo com a economia e com outras metodologias para a avaliação de consequências, esse percurso deve ser trilhado com cuidado e atenção, a fim de se evitar os riscos do consequenciachismo e outros tipos de subjetivismo.

Há necessidade, também, de maior abertura para o pluralismo metodológico e para novas abordagens empíricas em torno do comportamento humano, como se examinará no próximo artigo desta série.

————————————

1 ARENDT, Hannah. A Condição Humana. Tradução de Roberto Raposo. Lisboa: Relógio d’Água Editores, 2001.

2 Ver FRAZÃO, Ana. Dados, estatísticas e algoritmos. Perspectivas e riscos de sua crescente utilização. Jota. https://www.jota.info/paywall?redirect_to=//www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/dados-estatisticas-e-algoritmos-28062017

3 The book of why. The new science of cause and effect. New York: Basic Books, 2018.

4 The tyranny of metrics. New Jersey: Princeton University Press, 2018.

5 Assessing the impact of planned social change. Evaluation and Program Planning Volume 2, Issue 1, 1979, Pages 67-90.

6 Princeton University Press, 2005.

7 Superforecasting. The art and science of prediction, New York: Crown Publishers, 2015.

9 The end of theory. Financial crises, the failure of economics and the sweep of human interaction. New Jersey: Princeton University Press, 2017.

10 A lógica do cisne negro. O impacto do altamente improvável. Tradução Marcelo Schild. Rio: Best Business, 2018.

11 The foundations of economics. Berlin: Springer-Verlag, 1992.


Faça o cadastro gratuito e leia até 10 matérias por mês. Faça uma assinatura e tenha acesso ilimitado agora

Cadastro Gratuito

Cadastre-se e leia 10 matérias/mês de graça e receba conteúdo especializado

Cadastro Gratuito