Regulação

Proposta de atualização regulatória para IA na União Europeia

Europa mostra sempre estar um passo à frente em relação a debates e reflexões sobre inteligência artificial

inteligência artificial
Crédito: Unsplash
brava

Em abril de 2021, a Comissão Europeia colocou em pauta a sua proposta de atualização no que se refere à regulação sobre o desenvolvimento e utilização de Inteligência Artificial (IA) no bloco econômico. A proposta de regulação 2021/006 (COD)[1], tem o intuito de proporcionar uma abordagem regulatória horizontal equilibrada e proporcional à IA. Se limita aos requisitos mínimos necessários para enfrentar os riscos e problemas ligados ao tema, sem restringir indevidamente ou dificultar o desenvolvimento tecnológico ou aumentar desproporcionalmente o custo de colocação de soluções de IA no mercado. O que proporciona um equilíbrio entre os riscos e benefícios no uso da tecnologia.

Dito isto, é necessário também analisar que quando se aborda o tema IA, o termo agente artificial inteligente[2], se torna importante. É preciso, levar em conta as interações sociais, culturais e econômicas da atualidade, e ainda refletir sobre o papel essencial de uma governança algorítmica em relação à questões, tais como: hábitos de compra e venda de mercadorias/serviços online; análise de elegibilidade para benefícios como obtenção de crédito ou assistência médica por meio de decisões algorítmicas; como também  negociações em bolsas de valores por meio de métodos que se utilizam de conjuntos de redes neurais artificiais[3] para prever se determinadas ações irão subir ou descer tendo como base análises de sazonalidade, e inúmeras outras aplicações cotidianas.

É importante, tendo isto em mente, enfatizar que o Título II da mencionada proposta de regulação atualizada pela Comissão Europeia apresenta quatro utilizações proibitivas para IA, explicadas abaixo, caso o texto seja aprovado.

A primeira utilização, é a implementação da tecnologia para influenciar ou distorcer o comportamento de um determinado indivíduo de modo a lhe fazer mal físico ou psicológico por meio de técnicas subliminares de manipulação. A segunda, similar à primeira, consiste em vedar a venda ou utilização de sistemas de IA que se aproveitem de vulnerabilidades de grupos específicos com base, em idade, deficiência física ou mental, com a finalidade de modificar o comportamento de uma ou mais pessoas destes grupos por meio de manipulação ou influência.

O terceiro tipo, proíbe a utilização de sistemas de IA por autoridades públicas com o fim de avaliar pessoas naturais para classificar sua confiabilidade com base em seu comportamento social conhecido também como social scoring[4], sistema utilizado em países como China e que pode gerar tratamento desfavorável à indivíduos com base em dados que não tenham relação direta com o contexto do tratamento ou que este desfavorável seja desproporcional ao comportamento social esperado.

A quarta forma de utilização, por fim, proíbe a aplicação de Sistemas de Identificação Biométrica Remota em espaços públicos para fins de segurança pública. Todavia, cita três exceções que justificam a utilização destes sistemas, tais como: busca por vítimas específicas de crimes; prevenção a um risco específico, substancial e iminente como ataque terrorista, e detecção, localização, identificação ou investigação de suspeitos de ofensas criminais.

Percebe-se, portanto, uma nítida preocupação da Comissão Europeia em procurar dar maior segurança jurídica na imputação de responsabilidades no uso desta tecnologia. Por outro lado, o debate em relação à imputação de responsabilização aplicável numa eventual futura personificação de agentes artificiais parece ainda distante de ser resolvida. O tema já foi de certa forma proposto pelo Parlamento Europeu em 2017.O mesmo, na época, apresentou a resolução 2015/2013 (INL)[5] com orientações sobre robótica, e que continha uma proposta em relação à criação de uma personalidade eletrônica para artefatos robóticos inteligentes.

Sabe-se, no entanto, que o tema da personificação dos agentes artificiais inteligentes, ainda sem definição, é e parece ser um assunto que será polêmico ainda nos próximos anos. Conquanto passem a atuar sem o aval e, muitas vezes, sem o conhecimento de seus programadores, as ações praticadas por estes agentes, por óbvio, acarretam repercussões jurídicas e, portanto, demandam soluções de forma premente. Sobretudo no âmbito da Internet, a IA já está presente nos provedores de aplicação de comércio eletrônico, de redes sociais e nas principais plataformas de busca e de compartilhamento de dados. Logo esta tecnologia, que opera e toma decisões de forma independente, já faz parte de nossas vidas.

Neste sentido o autor, Leon Wein[6], já em 1992, mencionava que os resultados obtidos por computadores seriam tão propensos a erros quanto qualquer decisão humana e, como consequência, esperava-se que ordenamentos jurídicos principalmente de países desenvolvidos pudessem distribuir a responsabilidade pelos equívocos ocorridos entre o proprietário da máquina, seu designer, seu programador, e outros . Desse modo, os dispositivos tecnológicos gerariam responsabilidades de ordem ou grau diferente dos humanos. Respostas assertivas em relação à personificação dos agentes artificiais e a sua responsabilização ainda estão longe de serem resolvidas. Perguntas reflexivas, tais como: 1) Uma vez que a imprevisibilidade emana da própria capacidade de aprendizado dos agentes, é impraticável identificar a priori todas as potencialidades danosas da aplicação do sistema? 2) Ou o dano causado estará diretamente ligado à conduta do agente artificial inteligente, mas não necessariamente à conduta culposa do programador, operador? Dentre outras, difíceis e polêmicas, cria um cenário desafiador frente ao Direito.

Além disto, a capacidade de se mimetizar a forma como o ser humano aprende, utilizando-se de algoritmos aplicados que não conhece ainda limitações teóricas, no sentido que, de fato, passam a possibilitar que programas de computador sejam criativos e desenvolvam, eles próprios, habilidade de desempenhar ações e chegar a resultados que seus criadores não são capazes de alcançar ou de prever é fascinante, contudo, perturbador.

Diante do exposto, é preciso dizer que a Europa mostra sempre estar um passo à frente em relação à debates e reflexões sobre IA. No tocante ao objetivo central da proposta de regulação europeia 2021/006 (COD) ressalta-se uma importante preocupação no que se refere ao equilíbrio entre as possibilidades positivas e negativas da IA. Com isto, a busca por um desenvolvimento tecnológico ético que possa fazer com que se tenha um ambiente propício para inovação e ao mesmo tempo confiança a partir da criação de limites e diretrizes para seu desenvolvimento e aplicação, se torna mais evidente.

Por fim, e ainda, num contexto, dependente de dados e fortemente impactado também por aspectos fortemente culturais, no qual o universalismo do Direitos Humanos Digitais[7] e a proteção de costumes locais traçam uma relação por vezes conflitante, entender e analisar os desdobramentos desta proposta se faz necessário. Ressalta-se que se a mesma, aqui exposta, for aprovada será aplicada a toda e qualquer empresa na União Europeia e a empresas em quaisquer outros países que venham a vender ou oferecer seus sistemas de IA para entidades dentro do bloco europeu ou que afetem cidadãos europeus.

____________________________________________________________________________________________

REFERÊNCIAS

[1] https://media-exp1.licdn.com/dms/document/C4D1FAQHFyIq0xUTG-A/feedshare-document-pdf-analyzed/0/1619045664603?e=1619560800&v=beta&t=HrzGlII1zEv2MZ8uLUGZsevyHOYVtJkKAVCf8eQr_nw. Acesso em: 26 de abril de 2021.

[2] https://www.livrosgratis.com.br/ler-livro-online-79890/agentes-inteligentes-artificiais. Acesso em: 26 de abril de 2021.

[3] https://matheusfacure.github.io/2017/03/05/ann-intro/. Acesso em: 26 de abril de 2021.

[4] https://www.euronews.com/2020/06/24/social-scoring-could-that-facebook-post-stop-you-getting-a-loan-or-a-mortgage.Acesso em: 26 de abril de 2021.

[5] https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_PT.html?redirect.Acesso em: 26 de abril de 2021

[6]https://jolt.law.harvard.edu/assets/articlePDFs/v06/06HarvJLTech103.pdf. Acesso em: 26 de abril de 2021.

[7] https://politics.org.br/edicoes/declara%C3%A7%C3%A3o-universal-dos-direitos-humanos-na-era-digital.Acesso em: 26 de abril de 2021.