Fronteiras de Concorrência e Regulação

inteligência artificial

O carro na frente dos bois: a precipitada regulação da IA no Brasil

Aprovação de um marco normativo sobre o assunto nesse momento provavelmente gerará efeitos mais negativos que positivos

inteligência artificial
Crédito: Unsplash

No início de julho, foi aprovado o regime de urgência para o Projeto de Lei nº 21/2020, cujo objetivo é criar um regime regulatório para a inteligência artificial no Brasil. O movimento vem na esteira de debates semelhantes em outras jurisdições – especialmente, as discussões na União Europeia sobre o tema. Ocorre que, por diversas razões, o movimento por aqui é extremamente precipitado, o que pode gerar efeitos negativos para todos os envolvidos: cidadãos, governo, empresas e terceiro setor.

Importante desde logo destacar que o desacordo com o movimento de forma alguma se confunde com afirmar que qualquer regulação da inteligência artificial é indesejada, ou mesmo que a discussão sobre esse tema não é necessária, pelo contrário. Não só a discussão deve ser feita, como é prudente que ela comece o quanto antes. No entanto, a aprovação de um marco normativo sobre o assunto nesse momento, dado o nível de discussão que temos no país a respeito, provavelmente gerará efeitos mais negativos que positivos.

Explico. Debater inteligência artificial é, sem meias palavras, debater a fronteira de desenvolvimento tecnológico em um número muito relevante de setores. É um tema sofisticado, que envolve não só complexidade do ponto de vista da ciência de dados, mas também do ponto de vista da ética e da filosofia. Isso porque uma das características de sistemas que fazem uso da inteligência artificial é precisamente a sua pretensão de resolver problemas que por vezes seres humanos não conseguem, sozinhos, solucionar (seja porque são incapazes de visualizar certas correlações entre variáveis, seja porque esse trabalho demandaria um tempo inviável se não fosse automatizado).

Em outras palavras, a inteligência artificial vai além da mera automatização de um processo e pretende também imbricar-se na efetiva criação deste processo. Essa diferença é fundamental porque ela nos permite compreender que, enquanto na automação pura e simples o que o algoritmo faz é seguir os passos pré-estabelecidos pelo programador, num processo que faz uso da inteligência artificial a ideia é que o algoritmo saiba qual é o resultado pretendido e “crie” ele mesmo uma forma de atingi-lo.

Pode parecer ficção científica, mas longe disso. Parte da razão pela qual o uso de inteligência artificial é talvez menos assustador do que possa inicialmente parecer vem de compreender que seu funcionamento, numa porção relevante dos casos, é baseado em predições estatísticas. Um exemplo simples nos ajuda a melhor entender essa ideia: durante a pandemia de covid-19 que vivemos, houve uma dedicação grande de recursos a desenvolver algoritmos capazes de diagnosticar casos da doença de forma ágil, e inclusive de auxiliar a equipe médica em identificar fatores que poderiam levar aquele paciente a um quadro grave.

O que esses algoritmos fazem, em grande medida, é olhar para um universo de casos já diagnosticados de covid-19 e tentar encontrar padrões que ajudem a predizer casos futuros. Pode ser que uma combinação aparentemente “inocente” de sintomas se repita enormemente em pessoas que posteriormente precisam ser hospitalizadas, e pode ser ainda que seja difícil, num curto período de tempo e considerando apenas os pacientes de um único hospital, encontrar esse padrão. Mas a inteligência artificial pode se mostrar como aliada nesse contexto. Não porque ela vá encontrar a cura da doença em poucas semanas, muito menos porque irá aprender medicina em tempo recorde, mas simplesmente porque ela pode ser eficaz na identificação de padrões.

Pois bem, isso tampouco quer dizer que a inteligência artificial não comporte riscos. Como dito, boa parte dos algoritmos é treinado utilizando bases de dados que refletem o passado – no nosso exemplo anterior, o sistema aprende a encontrar casos graves de covid-19 olhando para diagnósticos que levaram a hospitalizações e também a quadros leves ou mesmo assintomáticos.

Um dos grandes problemas é que, se por alguma razão essa base de dados for enviesada, o algoritmo simplesmente aprenderá esses vieses e os tomará como verdade. Imaginemos, hipoteticamente, que esse algoritmo voltado ao diagnóstico de casos graves de covid-19, em algum momento de escassez de leitos de UTI, seja utilizado para determinar quais pacientes serão hospitalizados de imediato e quais terão que aguardar mais tempo para atendimento.

Imaginemos também que o algoritmo conseguiu identificar que pessoas brancas em regra permanecem menos tempo hospitalizadas que pessoas negras, e que com base nisso tenhamos uma razão “objetiva” para dizer que a melhor alocação de recursos implica em levar a origem étnico-racial em consideração no momento da tomada de decisão sobre a internação. Não precisamos gastar muitas linhas a mais nessa explicação para que o problema fique evidente.

Mas, afinal, se os riscos dessa tecnologia são tão relevantes, como esse exemplo demonstra, não haveria uma razão adicional para regulá-la? Sim e não. Certamente é uma razão relevante para discutir a regulação e encontrar soluções, mas também é uma razão evidente para evitar regras ruins. É também, e talvez principalmente, um motivo claro para que se analise o que nas regras já existentes no nosso ordenamento jurídico pode auxiliar a resolver os desafios que a inteligência artificial pode apresentar. Pensando sobre cada um desses três pontos – o debate sobre a regulação, a fuga de propostas aquém do necessário e a busca por alternativas em normas já existentes – é possível tirarmos algumas conclusões.

A primeira delas é que regular algo que sequer conseguimos definir com muita clareza gera um risco relevante de deixarmos muitas situações importantes de fora das regras, e também de inserirmos no escopo das regras situações que não deveriam estar por elas abarcadas. Esse talvez seja o ponto mais evidente de debate no PL. Não temos consenso mínimo sequer sobre o que será considerado inteligência artificial para fins de políticas públicas, muito menos maturidade suficiente para reduzir essa complexidade a texto normativo.

Usando o comparativo europeu, é notória a quantidade de iniciativas voltadas a debater a inteligência artificial naquela jurisdição antes que a atual proposta regulatória fosse colocada em pauta – e mesmo assim o debate sobre o que propriamente o regulamento abarcará é grande. Por aqui, provavelmente a mais relevante produção sobre o tema incentivada pelo governo e que contou com participação da sociedade civil foi a confecção da Estratégia Brasileira de Inteligência Artificial e, apesar de certamente esse documento resultar de boa vontade de servidores para trazer o devido destaque ao tema, fato é que ele em grande medida revela precisamente a pouca maturidade da discussão.

A segunda é um reconhecimento de que soluções inefetivas tendem a gerar ainda mais incerteza, e não raro maiores ameaças a direitos. Um destaque do PL nesse sentido é que ele pretende criar esse complexo sistema normativo, mas o faz sem em qualquer momento reconhecer aquilo que toda a literatura sobre o tema já considera incontestável – uma das principais, senão a principal, preocupação com o uso de IA é a sua mobilização pelo próprio poder público. Softwares de policiamento preditivo e delegação a algoritmos de decisões sobre políticas públicas de acesso a direitos fundamentais (como moradia, saúde, educação) são apenas alguns dos exemplos mais marcantes dessa questão. Ainda assim, o projeto apenas não fala sobre o assunto.

A terceira conclusão relaciona-se às demais e diz respeito à importância de, em não havendo maturidade suficiente para regular um tema complexo e riscos relevantes de que uma regulamentação açodada tenha resultados negativos, buscar nas leis já existentes soluções que, ainda que parciais, consigam resolver uma parcela importante das questões. Uma alternativa que poderia ser debatida nesse sentido diz respeito à Lei Geral de Proteção de Dados Pessoais (LGPD).

Essa lei, cujo processo normativo foi extremamente alongado e resultou em mais de 60 artigos que estabelecem uma série de regras sobre o tratamento de dados pessoais no Brasil, tem uma proibição específica para qualquer discriminação (inclusive algorítmica) cujos fins sejam ilícitos ou abusivos, além de vários outros princípios que orientam o tratamento de dados pessoais e obrigações específicas de revisão de decisões automatizadas. Certamente essas regras poderiam, se corretamente mobilizadas, endereçar muitas preocupações relacionadas ao uso da inteligência artificial, mas essa alternativa não foi discutida de maneira detida, nem foi debatido como ela poderia ser prioritária (dado que a norma já existe) em relação à aprovação de uma nova lei.

Sem a menor sombra de dúvida, o tema da inteligência artificial é de enorme importância e debater formas para mitigar riscos derivados do uso dessa tecnologia, bem como modelos regulatórios que combinem incentivo à inovação e proteção a direitos, é essencial.

O que igualmente parece verdade é que apressar uma “solução” normativa que na realidade não consegue resolver muitos dos problemas que academia, governo, sociedade civil e iniciativa privada identificaram não parece ter grandes vantagens, e pode ainda agravar alguns problemas. Resta saber se de fato embarcaremos nessa aventura legislativa, ou se ainda estamos em tempo de rever esse encaminhamento e pensar nas melhores formas de, realmente, endereçar o tema.