
A evolução tecnológica é uma realidade e já não temos mais autonomia para renunciar a ela. Atividades que fomos acostumadas (os) a vida toda a realizar pessoalmente como ir ao médico, fazer transações bancárias ou fazer um novo curso, hoje são uma realidade de serem realizadas virtualmente, sem maiores rejeições quanto à ideia. Importa dizer que, neste ponto, a pandemia provocada pelo coronavírus conseguiu apressar consideravelmente a nossa necessidade de adaptação à tecnologia.
Vivemos a quarta revolução industrial: apertemos os cintos porque a aventura está só começando. Estamos falando de robôs, neurotecnologias, biotecnologias, impressoras em 3D e inteligência artificial, dentre outros recursos criados para facilitar a vida.
Tudo nasce a partir dos dados. Todo acesso é informação. Informação é poder e diz respeito diretamente a privacidade. Neste contexto, tivemos a edição da Lei Geral de Proteção de Dados (LGPD), um dispositivo legal que promete uma mudança de cultura nessa era tecnológica.
A LGPD, sancionada em agosto de 2018 regulamenta coleta, armazenamento, tratamento e compartilhamento de dados pessoais, assegurando mais respeito a privacidade, exigindo responsabilidade social na gestão das informações compartilhadas, inclusive com previsão de sanção para os casos de descumprimento de seus termos.
A partir desta inovação legislativa, com a qual as empresas e organizações ainda estão buscando formas de se adequar, almejamos ter uma melhor visualização, um maior controle de dados e rastreamento de informações que nos dizem respeito.
Um ponto importante a ser ressaltado nesta legislação é a proteção de dados sensíveis, definidos como aqueles que revelam origem racial ou étnica, convicções religiosas ou filosóficas, opiniões políticas, filiação sindical, questões genéticas, biométricas e sobre a saúde ou a vida sexual de uma pessoa.
Sobre os dados sensíveis, a lei enfatiza que prestadoras(es) de serviços e vendedoras(es) de produtos autônomos, empresas, organizações e governo poderão tratá-los, desde que tenham o livre e explícito consentimento da pessoa titular dos dados, que poderá ou não autorizar seu uso (que é específico, destinado a determinado fim). Naturalmente, esta decisão se baseia nas informações prestadas pela pessoa (física ou jurídica, de direito público ou privado) acerca do tratamento e uso desses dados (marco de transparência e autodeterminação informativa).
A Lei Geral de Proteção de Dados Pessoais, em seu art. 11º., determina que o tratamento somente ocorrerá por meio do consentimento e em sua ausência, APENAS em situações indispensáveis, devidamente previstas na lei, quais sejam: aquelas relativas a uma obrigação legal; a políticas públicas; a estudos via órgão de pesquisa; a um direito, em contrato ou processo; à preservação da vida e da integridade física de uma pessoa; à tutela de procedimentos feitos por profissionais das áreas da saúde ou sanitária; à prevenção de fraudes contra o titular.
As informações que são coletadas 24h acerca de nosso deslocamento pelo GPS, o CPF que mencionamos quando fazemos compras e os filmes que assistimos nas plataformas digitais são dados gerencialmente importantes, porque alimentam algoritmos, ensinando os sistemas de inteligência artificial a nos mapearem.
Os algoritmos são instruções objetivas direcionadas a uma máquina com vistas a alcançar determinado resultado vinculado à tomada de decisão. Significa dizer que o protagonismo criativo não reside no produto algorítmico, mas, na pessoa que define os parâmetros para treinamento da máquina. Resta configurado, portanto, um viés conformado por fatores diversos, quais sejam: demandas gerenciais especificas, inclinações ideológicas, crenças e valores o que, possivelmente, repercute nos critérios de decisão. O viés algorítmico é a extensão de uma lógica de pensamento (dominante) que dirige o processo decisório, tendo assim, notada natureza estrutural.
Os algoritmos podem ser didaticamente traduzidos como um passo a passo para realização de uma tarefa. Uma receita de bolo, uma montagem de um móvel com as instruções, são exemplos de algoritmos que produzimos e seguimos cotidianamente. Os algoritmos racionalizam o processo de construção de uma decisão.
No mundo tecnológico, os algoritmos mapeiam, por exemplo, os sites que acessamos, as temáticas de filmes que escolhemos, habilitando-se, com o passar do tempo, a ler nossos desejos, potenciais, dificuldades e interesses a partir de sua capacidade de armazenamento de dados, apresentando-nos escolhas preditas que refletem nossas preferências e necessidades, construindo opções que se alinhem a nossa ideologia, necessidade e visão de mundo. Esse breve apanhamento revela o quão importante são os dados que compartilhamos.
Um dos pontos negativos dessa experiência é perceber que os algoritmos acabam criando bolhas sociais endógenas ao nosso redor, impedindo-nos de ressignificar opções e compreender os propósitos e interesses desse mundo virtualizado. No que pertine a inteligência artificial, estamos criando máquinas tão inteligentes que não somente perfilam padrões comportamentais (algorítmicos), mas nos manipulam com o intuito de alimentar características, atributos e condutas desejadas (úteis a interesses comerciais).
Nossas redes sociais começam a somente mostrar postagens que se coadunam com nossa forma de pensar. A plataforma de filmes apenas sugere obras dos gêneros que gostamos, e assim começamos a ser bombardeadas(os) por promoções que se encaixam perfeitamente aos nossos desejos e sonhos, mesmo que não sejam necessidades atuais. É nesse passo que somos estimulados a adquirir produtos e serviços que nem conseguimos perceber que não precisamos.
Estas são as formas de manipulação mediadas por recursos tecnológicos com as quais lidamos atualmente. Este quadro de controle e cerceamento evidenciam a necessidade de se compreender a lógica de aparelhamento dos dados, revelando os bastidores dos algoritmos, a fim de não nos tornarmos um produto.
Os algoritmos são estruturados para produzir comandos que também perfazem padrões, assim, apresentam, muitas vezes, vieses discriminatórios, o que é drasticamente danoso em uma sociedade adoecida por ser constituída por um misto de opressões. O problema aqui não é a tecnologia, mas sim, a apropriação descuidada de seu potencial de serviço.
Vamos exemplificar dois casos em que a tecnologia serviu como meio de reprodução de uma lógica opressora.
Em meados de 2019 uma página ativista da França identificou que a palavra “lésbica”, quando pesquisada no google, recebia como resultado de pesquisa, indicação de visita a endereços pornográficos para acesso em um viés totalmente discriminatório com reforço de Misoginia e LGBTfobia.
Identificada esta hipersexualização da mulher lésbica, a referida página começou como uma hashtag #SEOlesbienne, tendo sido aderida por muitas ativistas de inúmeros países apoiadores da hashtag e criou-se uma movimentação geral de formalização de reclamações direcionadas ao mecanismo de busca da Google.
Como resultado, o Google anunciou que reformularia o seu algoritmo e com a mudança, o termo chave começa a trazer conteúdos institucionais sobre orientação sexual e artigos voltados à saúde da mulher lésbica, enfrentamento a lesbofobia ou até mesmo notícias mais gerais.
Em um último caso, podemos analisar uma ferramenta que tem causado muitas complicações: reconhecimento facial. Uma tecnologia que apresentou falhas significativas no montante de 96% durante sua utilização em Detroit, nos Estados Unidos e 81% dos casos em Londres, foi adotada também no Brasil, no ano de 2019 repetindo o resultado catastrófico.
Um relatório da Rede de Observatórios da Segurança, grupo criado em maio de 2019, para coletar indicadores que não são divulgados oficialmente, como episódios de racismo, operações policiais e chacinas, analisou o perfil das pessoas negra, identificadas pelo referido sistema e identificou que 90% eram negros, 88% homens, com idade média de 35 anos e abordados principalmente por tráfico de drogas (24%) e roubo (24%). A pesquisa analisou um total 151 detidos de março a outubro de 2019, em cinco estados: a Bahia registrou 52% dos casos, seguida de Rio de Janeiro (37%), Santa Catarina (7%), Paraíba (3%) e Ceará (1%).
A imprecisão técnica na detecção dos rostos e a reprodução do perfil carcerário de um país estruturalmente racista nos números das pessoas detidas mostra que esta ferramenta, tem apresentado vieses discriminatórios e servido para promover verdadeiros retrocessos na política criminal, reforço da seletividade penal e com fortalecimento de estigmas sociais de racismo ligado a cometimento de condutas tipificadas em nosso ordenamento.
É preciso pensar avanço tecnológico com responsabilidade social, ampla fiscalização dos órgãos públicos competentes, participação de entidades do terceiro setor e público em geral, apoio na produção de leis e, inclusive, efetiva sanção em casos de configuração de desrespeito a direitos de coletividade.
Esse contexto de fortalecimento de opressões por meio de algoritmos, coloca em risco direitos fundamentais e descredibiliza o próprio Estado Democrático de Direito, quando permite, ou se omite, em situações nas quais grupos vulneráveis têm ferida sua Dignidade, fundamento da República conforme preconiza a Carta Magna de 1988, art. 1º, III.