Constituição, Empresa e Mercado

constituição, empresa e mercado

Marco da Inteligência Artificial e os ‘cisnes digitais’ – Parte 2

As incertezas podem ser o maior e o melhor motivo para a ação regulatória

Inteligência artificial
Crédito: Pexels

No artigo anterior desta série, procurei mapear as razões pelas quais, diante dos riscos já suficientemente identificados na utilização de inteligência artificial, há bons fundamentos para prosseguirmos nas iniciativas que buscam assegurar uma regulação adequada, que não se limite a ser uma tímida declaração de princípios sem consequências práticas.

Entretanto, resta abordar ponto também muito importante da questão, que diz respeito a como regular questões em relação às quais temos ainda um volume substancial de incertezas. Afinal, um argumento reiteradamente utilizado para obstar a regulação da inteligência artificial é o de que ainda sabemos muito pouco sobre ela.

A nossa considerável ignorância em relação à inteligência artificial nos coloca, portanto, diante do seguinte impasse: em face da incerteza, pode ou deve o regulador avançar? Como? Ou a melhor postura é aguardar até um número mais robusto e confiável de evidências científicas?

Em primeiro lugar, é importante destacar que tal discussão depende da prévia compreensão da necessidade de distinção entre riscos — o que pode ser previsto e, consequentemente, torna-se mais suscetível de mensurações, prognoses e cálculos estatísticos ou probabilísticos, controle e gerenciamento — e incertezas — o que não pode ser previsto nem calculado.

Desde a obra de Taleb[1], difundiu-se o uso da expressão “cisne negro” para indicar as incertezas em oposição aos riscos. O termo inclusive vem ganhando especificações para se ajustar a alguns tipos de incertezas, como é o caso da expressão “cisne verde”, para se referir às incertezas ambientais. Daí eu ter me permitido sugerir o termo “cisnes digitais” para me referir às incertezas que o meio digital proporciona, incluindo aí as decorrentes da inteligência artificial.

Aliás, vale ressaltar que, sobre as incertezas, Taleb[2] já nos mostra a importância de as levarmos em consideração em nossas decisões, a fim de criar modos de vida mais resistentes. Trata-se de reflexão convergente com a postura de Kay e King[3], ao alertarem para a necessidade de considerarmos as incertezas nas decisões regulatórias, a fim de adotarmos soluções mais resilientes e que possam considerar cenários diferentes — além do previsto como o mais provável ou possível — e até mesmo inimagináveis.

Obviamente que lidar com incertezas não é fácil. Entretanto, não será a primeira vez que legisladores e reguladores se deparam com esse tipo de problema. Em diversos assuntos, já tiveram que o fazer, sendo exemplo o Direito Ambiental, em que o princípio da precaução se destina precisamente a lidar com as incertezas, enquanto o princípio da prevenção se destina a lidar com os riscos. O mesmo pode ser dito em relação à saúde humana.

Mais recentemente, a discussão tem sido retomada com o problema das cadeias globais, diante dos danos decorrentes da pandemia do coronavírus, fato que ressaltou a fragilidade de modelos pensados apenas a partir dos riscos existentes e que não têm qualquer resiliência para lidar com o inesperado.

Dessa maneira, lidar com as incertezas não é propriamente algo novo. Entretanto, exige importantes reflexões, inclusive no que diz respeito ao fato de que, quando se fala em princípio da precaução, temos que superar a ideia de regulação baseada em evidências ou em análises de impacto regulatório. Afinal, nem há evidências científicas suficientes para orientar a decisão, nem as análises de impacto regulatório se ajustam às incertezas, pois apenas metrificam riscos e, mesmo assim, com inúmeras deficiências.

Como explica René von Schomberg[4], o princípio da precaução está relacionado a dois elementos cruciais: seriedade das consequências e incerteza científica. É por essas razões que o princípio estabelece um racional de ação que substancialmente diminui as exigências para a ação governamental, ainda que parta da premissa de que tais medidas de precaução sejam provisórias por natureza, uma vez que precisam ser regularmente revistas quando a informação científica demandar seu fortalecimento ou mesmo seu relaxamento, tal como nas hipóteses em que o conhecimento científico transformar incertezas em riscos e níveis consensuais de danos[5].

Sob essa perspectiva, não há como questionar que algumas das aplicações da inteligência artificial atendem completamente ao requisito da seriedade das consequências. Sem qualquer pretensão de esgotar o tema, podem ser citados os exemplos das armas autônomas, do reconhecimento facial e de diversas tecnologias que podem manipular as pessoas e subverter até mesmo o livre arbítrio.

Mesmo havendo ainda grau considerável de incerteza, o simples fato de já haver riscos mapeados e podermos antecipar alguns cenários graves que podem decorrer de utilizações indevidas de tais tecnologias já é um forte motivo para a ação regulatória.

Como bem resume a Comissão Europeia[6], a precaução tem a ver com a ideia de que intervenção regulatória pode ser legítima mesmo quando as evidências forem ainda incompletas ou especulativas e mesmo quando os custos da regulação forem altos, pela simples razão de que o seu principal fundamento é a ideia de que é melhor prevenir do que remediar (“better safe than sorry”).

Tal postura, inclusive, afasta igualmente o argumento de que tal tipo de regulação seria “anticientífica”, pois, nos termos da análise da Comissão Europeia: “it does not follow that precaution is un- or anti-scientific. What is unscientific, says Stirling (2016), is to ignore multiple perspectives on uncertainty”[7].

Daí porque, em relação às incertezas decorrentes da inteligência artificial, não podemos exigir que o avanço da regulação dependa de evidências científicas robustas. Aliás, nesse campo, a própria ideia de ampla prova científica se mostra equivocada, já que riscos, valor e conhecimento são contingentes e em desenvolvimento.

A rigor, esse raciocínio, longe de se restringir a esferas específicas, como a inteligência artificial, deve ser aplicado a todas as questões humanas e sociais, em relação às quais é cada vez mais difícil basear decisões ou políticas em riscos previamente conhecidos, desconsiderando as incertezas. Nos termos da advertência de Jens Beckert e Richard Bronk[8], é característica das economias contemporâneas que os formuladores de decisões sejam confrontados a todo momento com incertezas fundamentais, o que torna impossível que tais decisões sejam apenas cálculos racionais.

Ainda segundo Jens Beckert e Richard Bronk[9], o futuro não pode ser compreendido como uma sombra estatística do passado, de forma que, a rigor, não podemos saber qual é o modelo correto de como a economia será, assim como não podemos predizer o futuro pelo simples fato de que o que ainda não existe não poder ser conhecido (“what does not yet exist cannot now be known”).

Exatamente por isso, precisamos reconhecer de vez o problema das incertezas e o enfrentar sempre que a seriedade das consequências de um futuro incerto se colocar. Em um mundo repleto de incertezas, exigir evidências científicas completas e robustas ou cálculos de risco para a ação regulatória é simplesmente inviabilizar qualquer tipo de regulação, desconsiderando por completo a complexidade do mundo.

Até mesmo o alegado “tradeoff” entre inovação e precaução precisa ser colocado em perspectiva. Para Andy Stirling[10], por exemplo, são equivocadas as ideias de que a utilização do princípio da precaução para a tecnologia seria perigosa, arbitrária, irracional ou mesmo suprimiria inovação. Na verdade, o princípio da precaução deve servir para conduzir a inovação — tornando-a compatível com o bem-estar das pessoas — e não para a bloquear:

“Precaution is about steering innovation, not blocking it. It is not necessarily about ‘banning’ anything, but simply taking the time and effort to gather deeper and more relevant information and consider wider options. Under conditions of incertitude to which risk assessment is — even under its own definition — quite simply inapplicable, precaution offers a means to build more robust understandings of the implications of divergent views of the world and more diverse possibilities for action.”

De toda sorte, o princípio da precaução também pode servir para desacelerar a inovação, o que, a depender do caso, pode também ser positivo, já que a inovação não é necessariamente boa. Vale ressaltar a interessante observação de Acemoglu[11] a respeito da utilização do princípio da precaução precisamente para tal fim:

“These considerations then suggest a “precautionary regulatory principle” — ex ante regulation slowing down the use of AI technologies, especially in domains where redressing the costs of AI become politically and socially more difficult after large-scale implementation. AI technologies impacting political discourse and democratic politics may be prime candidates for the application of such a precautionary regulatory principle.”

Como se pode observar, Acemoglu defende que o princípio da precaução deve justificar a desaceleração de algumas aplicações de inteligência artificial que podem gerar graves consequências, tal como é o caso das tecnologias que impactam o discurso político e a própria democracia.

Por todas essas razões, invocar as incertezas como um pretexto para a inação regulatória é um grande equívoco. Em muitos casos, são as graves consequências que podem decorrer de tais incertezas os maiores e melhores fundamentos para uma regulação atenta ao princípio da precaução. Diante dos “cisnes digitais”, a omissão pode ser desastrosa, o que recomenda um modelo de regulação que se ajuste a diversos cenários e seja minimamente resiliente aos eventos inesperados.

Tal constatação obviamente não esclarece como implementar o princípio da precaução de maneira adequada. Em relação a tal ponto, é preciso avançar na reflexão, inclusive a partir da observação de iniciativas semelhantes que, como é o caso da União Europeia, discute hoje um projeto de regulação de inteligência artificial que contém inclusive banimentos de determinadas aplicações e sérias restrições a diversas outras.

Entretanto, a constatação ora apresentada é suficiente ao menos para superar o maniqueísmo e a superficialidade de muitas posturas que adotam o argumento da incerteza como um óbice insuperável para a regulação, o que definitivamente não pode ser aceito.

Está mais do que na hora de superarmos a discussão sobre se a regulação da inteligência artificial é necessária para enfrentarmos o real problema de como essa regulação deverá ocorrer, inclusive em prol da inovação.


[1] TALEB, Nassim Nicholas. A lógica do cisne negro. O impacto do altamente improvável. Tradução Marcelo Schild. Rio: Best Business, 2018.

[2] Op.cit.

[3] KAY, John; KING, Mervin. Radical Uncertainty. Decision-making beyond the numbers. New York: W.W.Norton & Company, 2020.

[4] SCHOMBERG, Rene von. The precautionary principle and its normative challenges. In: FISHER, Elizabeth; JONES, Judith; SCHOMBERG, Rene von. Implementing the precautionary principle. Perspectives and Prospects, Edward Elgar, p. 23.

[5] Op.cit., p. 34.

[6] EUROPEAN COMISSION. The Precautionary Principle: decision-making under uncertainty. https://ec.europa.eu/environment/integration/research/newsalert/pdf/precautionary_principle_decision_making_under_uncertainty_FB18_en.pdf

[7] Op.cit., p. 7.

[8] BECKERT, Jens; BRONK, Richard. Uncertain futures. Imaginaries, narratives and calculation in the Economy. Oxford: Oxford University Press, 2018, prefácio dos autores.

[9] Op.cit..

[10] STIRLING, Andy, Precaution in the Governance of Technology. https://www.researchgate.net/publication/321912227_Precaution_in_the_Governance_of_Technology

[11] ACEMOGLU, Daron. Harms of AI. https://www.nber.org/papers/w29247.