Opinião & Análise

Tecnologia

Regulation against the machine

Críticas ao PL que busca regular inteligência artificial no Brasil

inteligência artificial
Crédito: Pixabay

Neste mês, foi apresentado no Senado Federal o Projeto de Lei nº 5.051/2019,1 cujo objeto é a regulação da inteligência artificial e suas aplicações na sociedade brasileira. A precoce iniciativa, inspirada nas medidas adotadas pelos Estados Unidos, China e União Europeia, seria inofensiva se só levada em conta sua inépcia; contudo, tal como proposto, o projeto de lei pode atrasar ainda mais o Brasil na corrida mundial por tecnologia de ponta.

É um padrão legislativo que cai como uma luva para a crítica de Cass Sunstein na célebre obra “The Laws of Fear” sobre medo, perigo e ignorância sendo capazes de produzir normas proibitivas que interrompam o progresso.2

Na apoteose de loucura por tentar abordar tema tão complexo em apenas sete artigos, há um feixe de serenidade. Antes de implodir o projeto, é importante destacar que ele possui uma disposição interessante logo no seu artigo 2º, ao elencar um rol principiológico3 para o desenvolvimento da inteligência artificial. Lista, entre outros, dignidade humana, liberdade, democracia, igualdade, diversidade, proteção da privacidade e dos dados pessoais, e transparência. Todavia, no final do único dispositivo feliz da proposição, erra ao falar em supervisão humana como princípio norteador do uso de inteligência artificial no Brasil.

O primeiro erro crasso é utilizar o termo “Inteligência Artificial” (sic) com as iniciais em maiúsculo, mas não discriminar o que é o instituto nem no texto e nem na justificação do projeto. Inteligência artificial é um oxímoro, formulado para representar qualquer tipo de solução tecnológica que mimetize a inteligência, que, tradicionalmente, é exclusivo de seres vivos evoluídos em matriz carbônica. Chamar uma máquina de inteligente significa dizer que ela detém capacidade similar de processamento a algum traço do processo cognitivo dos seres vivos, sobretudo os seres humanos.

Embora a programação tradicional com a produção de softwares simples pode, em certa medida, ser chamada de inteligência artificial, a melhor referência histórica que temos é o artigo “Computadores e Inteligência“, escrito por Alan Turing em 1950. No texto, o matemático britânico faz a célebre pergunta: “máquinas podem pensar?”. A partir dessa reflexão, ele traça as bases para uma “máquina infantil” com potencial de aprendizado, dando os alicerces para a aprendizagem de máquinas, o machine learning e a computação probabilística, e a revolução na computação determinística.4

Para o New Oxford American Dictionary, inteligência artificial é “a teoria e o desenvolvimento de sistemas computacionais capazes de desempenhar tarefas que normalmente requerem inteligência humana, como percepção visual, reconhecimento de fala, tomada de decisões e tradução automática de idiomas.” Definir “inteligência artificial”, portanto, não é tarefa trivial. A cinética da evolução exponencial da capacidade computacional das máquinas impede qualquer classificação estática para o fenômeno. Não à toa, John McCarthy, criador do termo em 1956, afirmou que se o sistema funciona, ele deixa de ser inteligência artificial para as pessoas.5

Dito isso, empregar o termo “Inteligência Artificial” tal como feito no projeto de lei, sem um rol exemplificativo e sem fazer referência a diretrizes científicas, transferirá para o Poder Judiciário o dever de hermenêutica, o que pode ser desastroso.

E piora. O projeto de lei, em seu artigo 4º, estabelece que “os sistemas decisórios baseados em Inteligência Artificial serão, sempre, auxiliares à tomada de decisão humana”. O que são sistemas decisórios baseados em inteligência artificial? Não há dúvida de que o emprego de decisões automatizadas que afetem a pessoa natural em sua esfera jurídica deve, sim, ser apoiado por um técnico,6 tal como previsto no Regulamento Geral de Proteção Dados da União Europeia (GDPR) e erroneamente adaptado na Lei Geral de Proteção de Dados brasileira (LGPD).7

O uso de algoritmos na justiça, para credit score e na aviação civil, por exemplo, são alguns casos em que a colaboração humano e máquina é medida de rigueur, pois há diversos riscos inerentes à sua utilização.8

Por outro lado, filmes que assistimos, livros que compramos, amigos que adicionamos em redes sociais, caminhos que tomamos no trânsito et cetera são, hoje, em grande parte ditados por “sistemas decisórios baseados em Inteligência Artificial”. Isso significa dizer, sem exageros, que, por força da lege ferenda, todas essas atividades mundanas deveriam contar com a participação de um humano. Nada mais anacrônico.

Mas não é só. No § 2º do artigo 4º, consta que “a responsabilidade civil por danos decorrentes da utilização de sistemas de Inteligência Artificial será de seu supervisor”. Essa previsão é a prova, forte como só pode ser uma prova, de que o legislador não faz a mínima ideia do que é inteligência artificial. Auditar, controlar e entender a inteligência artificial é uma das tarefas mais trabalhosas da ciência; dito de outra forma, realizar a engenharia reversa em técnicas avançadas de inteligência artificial é um trabalho hercúleo9 e, em hipótese alguma, pode ser atribuído a uma única pessoa. Isso sem contar o risco que este dispositivo traz para o ambiente de negócios com o aumento da fuga de cérebros e do seguro de responsabilidade civil, bem como a paralisação de atividades e pesquisas.10

Com um pedido de desculpas, permita-se apresentar uma hipótese fictícia. A Google, em 2015, detinha mais de duas bilhões de linhas de código de programação.11 É possível nomear um supervisor, responsável na forma da lege ferenda? Ninguém pode ser obrigado ao impossível. Parece que o legislador ainda está longe de entender o que se propõe a regular.

Como se não bastasse, o art. 5º do Projeto de Lei estabelece uma “garantia” da adoção gradual da inteligência artificial. Como se o Brasil precisasse de uma norma que determinasse que a evolução tecnológica pisasse no freio.

Os países selecionam os riscos que desejam assumir; nenhuma sociedade é capaz de se precaver em relação a todas as incertezas.12 Parece-nos que, diante da realidade brasileira, não faz o menor sentido adotar uma postura não apenas atécnica e conservadora, mas que denota tão claramente o desconhecimento do objeto que se pretende regular. Não estamos usando drones bélicos como os Estados Unidos ou o social score como a China.

Nesse contexto, seria altamente recomendável elaborar ao menos um estudo de custo-benefício de uma norma como essa antes de seu prosseguimento,13 na forma da ratio consequencialista da recente alteração da Lei de Introdução às Normas do Direito Brasileiro.14

É preciso destacar que os autores não são contra a regulação da inteligência artificial, sendo inclusive grandes entusiastas do tema no país; a oposição é contra projetos de lei que perdem a incrível oportunidade de utilizar a experiência internacional para produzir um documento legislativo de excelência. Mas, como no Brasil, nas palavras de Nelson Rodrigues, só os profetas enxergam o óbvio, o que é elementar precisa ser dito: a regulação não pode paralisar o desenvolvimento econômico, social e tecnológico.

————————————-

1 O Projeto de Lei foi apresentado pelo Senador Styvenson Valetim do PODEMOS-RN em 16.09.2019 (https://www25.senado.leg.br/web/atividade/materias/-/materia/138790).

2 SUNSTEIN, Cass R. Para além do princípio da precaução. Revista de Direito Administrativo, Rio de Janeiro, v. 259, jan-abr. 2012.

3 Até mesmo quando acerta na intenção, o projeto falha pela simplicidade. Ao elencar apenas um rol de princípios genéricos que devem ser positivados em eventual regulação, o momento é de debater como estes (e outros) princípios serão setorialmente aplicados para o desenvolvimento dos sistemas inteligentes no Brasil, a fim de delimitar sua adequada positivação. Por exemplo, o princípio da diversidade e suas aplicações concretas devem levar em conta esforços para melhorar a diversidade entre desenvolvedores e pesquisadores de IA, além de ampliar e incorporar ampla gama de perspectivas, não apenas no desenvolvimento dos sistemas em si, mas em suas constantes reavaliações.

4 TURING, Alan M. Computing and Machinery Intelligence. Mind, vol. 59, 1950.

5 VARDI, Moshe Y. Artificial Intelligence: Past and Future. Communications of the ACM, vol. 55, janeiro de 2012.

6 FERRARI, Isabela; BECKER, Daniel. O direito à explicação sobre decisões automatizadas: Uma análise comparativa entre União Europeia e Brasil. Revista de Direito e as Novas Tecnologias, v. 1, 2018.

7 Idem, ibidem.

8 FERRARI, Isabela; BECKER, Daniel; WOLKART, Erik Navarro. Arbitrium ex machina: panorama, risco e a necessidade de regulação das decisões formadas por algoritmos. Revista dos Tribunais, v. 995, set. 2018.

9 Idem, ibidem.

10 ANTUNES, Paulo Bessa de. Sobre a precaução. O Eco. Disponível em: https://www.oeco.org.br/colunas/paulo-bessa/16834-oeco-10378/ – Acesso em 21 de set. 2019.

11 METZ, Cade. Google Is 2 Billion Lines of Code—And It’s All in One Place. Wired. Disponível em: https://www.wired.com/2015/09/google-2-billion-lines-codeand-one-place/ – Acesso em 21 de set. 2019.

12 DIONÍSIO, Pedro de Hollanda. Princípio da precaução e contradições na regulação do risco In Regulação 4.0: novas tecnologias sob a perspectiva regulatória (coord. BECKER, Daniel; FERRARI, Isabela). Revista dos Tribunais: São Paulo, 2019, p. 105.

13 MANDEL, Gregory; GATHII, James Thuo. Cost-Benefit Analysis Versus the Precautionary Principle: Beyond Cass Sunstein’s Laws of Fear. University of Illinois Law Review, nº 05, 2006.

14 Na opinião dos autores, eventuais regulações impostas ao setor devem ser precedidas de amplo debate público, envolvendo, especialmente, a indústria, especialistas e a sociedade civil. Regular sistemas inteligentes é, em certa medida, decidir sobre o futuro de todos.


Faça o cadastro gratuito e leia até 10 matérias por mês. Faça uma assinatura e tenha acesso ilimitado agora

Cadastro Gratuito

Cadastre-se e leia 10 matérias/mês de graça e receba conteúdo especializado

Cadastro Gratuito