JOTA Info
Inova&Ação
Menu
  • Justiça
  • Casa JOTA
  • STF
    Voltar
    • STF
    • Do Supremo
    • SUPRA
  • Tributos & Empresas
    Voltar
    • Tributos & Empresas
    • Tributário
    • Concorrência
    • Saúde
    • Trabalho
    • Infraestrutura
    • Regulação
    • Mercado
  • Carreira
  • Dados
    Voltar
    • Dados
    • Aprovação dos Presidentes
    • Rui
    • Agregador de Pesquisas
  • Legislativo
  • Opinião & Análise
    Voltar
    • Opinião & Análise
    • Análise
    • Colunas
    • Artigos
  • Coberturas Especiais
    Voltar
    • Coberturas Especiais
    • Contencioso Tributário
    • Liberdade de Expressão
    • Inova&Ação
    • Nação Inovadora
    • Nova Economia
    • Segurança Jurídica e Investimento
  • Cadastre-se
  • Assine
  • Pro
Buscar
  • Cadastre-se
  • Assine
  • Pro
Login
  • Facebook
  • Twitter
  • Linkedin
  • Instagram
  • RSS

Home » Coberturas Especiais » Inova&Ação » Inteligência artificial e discriminação algorítmica

  • PODCAST

    Sem Precedentes: STF pode impor novo limite ao governo Bolsonaro em caso de armas

  • Coronavírus

    Butantan planeja exportar 27 milhões de doses da CoronaVac

  • CORONAVÍRUS

    Pandemia: um ano depois, o Brasil se fecha novamente

  • Direito Tributário

    Inclusão do ICMS no cálculo da CPRB

Direito e Tecnologia

Inteligência artificial e discriminação algorítmica

Regulação é condição urgente para sustentar o papel evolutivo da Inteligência Artificial e garantir a defesa do humano

  • Tales Schmidke Barbosa
10/01/2021 07:23
Facebook Twitter Whatsapp Email
comentários
inteligência artificial
Crédito: Pexels
Inova&Ação

Este texto integra a cobertura de novos temas do JOTA. Apoiadores participam da escolha dos temas, mas não interferem na produção editorial. Conheça o projeto!

As conquistas obtidas com o auxílio de ferramentas de Inteligência Artificial (IA) são inegáveis. A realidade atual convive com uma crescente implementação de artefatos de análise de comportamento humano por meio dessa modalidade de tecnologia, sendo inegável também que as máquinas representam perigo à autonomia dos ser humano, como indivíduo, e podem gerar mecanismos potencialmente discriminatórios em razão da possibilidade de manejo perverso de algoritmos.

É evidente que o avanço da Inteligência Artificial pode trazer grandes benefícios para a humanidade, desde que resguardada a defesa da condição humana e do desenvolvimento sustentável em todas as suas dimensões.


O sistema algorítmico de aprendizagem, utilizado para solucionar possíveis problemas e auxiliar na tomada de decisões por meio de previsões e probabilidades, pode produzir resultados discriminatórios e refletir preconceitos já existentes, principalmente pela utilização de correlações e não de causalidades quando de sua criação. Tudo isso adquire uma maior complexidade quando consideramos o desenvolvimento atual da ciência da computação no campo da IA (Inteligência Artificial), principalmente quando analisamos aprendizagem das máquinas, denominado pelos cientistas da computação de Machine Learning, que pode “mudar as regras do jogo”. Ou seja, o algoritmo inteligente faz uma espécie de previsão com base nos acontecimentos pretéritos e poderá estimar uma probabilidade futura.

Os métodos estatísticos utilizados no processamento de dados por algoritmos podem reproduzir vieses já existentes e levar a resultados discriminatórios, até porque nexo de causalidade e correlações são definidos pelos controladores de dados, que acabam transmitindo vieses existentes nos processos tradicionais de tomadas de decisões. A Inteligência artificial está relacionada à tarefa similar de usar computadores para entender a inteligência humana.

Dentro de diversas abordagens sobre o tema, a inteligência artificial pode ser classificada com IA forte, IA fraca e IA pragmática. Pela primeira abordagem, acredita-se que o computador possa pensar da mesma forma que os humanos. De acordo com a IA fraca, o computador só precisaria agir como se fosse inteligente. Na abordagem pragmática, não importa se as máquinas se pareçam com humanos ou não, e sim qual uso se pode fazer delas.

A inteligência artificial nada mais é do que uma criação algorítmica destinada a cumprir finalidades específicas com base no recebimento de dados objetivos (input) para gerar resultados também objetivos (outputs). O ponto crítico é que os algoritmos de aprendizagem na IA são organizados com maior complexidade do que na automação, pois não apenas seguem regras como também tomam decisões, aprendendo sozinhos sobre dados coligidos[1]. Há ainda, no campo denominado como Machine Learning, o fato de que adentram na máquina além do input e output o resultado desejado, o que torna um algoritmo capaz de tornar a relação entre dado e resultado verdadeira. É o que se chama de learners – são algoritmos inteligentes que criam outros algoritmos.

A discriminação algorítmica decorre do fato de que nessas operações por algoritmos alguém pode pertencer a determinado grupo e ser julgado a partir das características generalizada desse grupo, onde as características individuais de uma pessoa são desconsideradas, sendo vista apenas como membro de um dado conjunto de pessoas. A ocorrência da discriminação se torna melhor explicável quando se conceitua generalizações em consistentes (universais e não universais) e inconsistentes. As generalizações consistentes  podem ser subdividias em universais e não-universais. Nas universais tem-se como destaque o exemplo utilizado por Aristóteles de que “Todos os humanos são mortais”, o que significa que a totalidade da raça humana um dia, de fato, morre, de modo que essa generalização se mostra verdadeira em 100% dos casos. Nas não universais a generalização não se presta a descrever a totalidade de um grupo, mas sim uma característica compartilhada da maioria dos indivíduos daquele grupo, o que pode utilizado com grupo de indivíduos de determinada localidade. Generalizações inconsistentes são as que falham em preencher os parâmetros anteriormente definidos.

Utilizamos como exemplo uma afirmação de que “arianos são impulsivos”, o que é de fácil verificação que essa não é uma característica universal, pois não há evidências de que essas pessoas sejam mais impulsivas do que aquelas nascidas em outros períodos do ano[2]. O ponto chave da generalização é que com muita frequência os algoritmos utilizam características de um grupo  para avaliar a totalidade dos indivíduos, o que é uma forma de discriminação. Isso porque os agentes ainda precisam tomar grandes decisões quando do tratamento desses dados, e consequentemente tendem a utilizar características facilmente observáveis, como gênero, raça, orientação sexual como proxies para características produtivas algorítmicas.

Fator importante a ser observado na discriminação algorítmica é que o perfil criado de determinada pessoa utiliza dados históricos e pretéritos para traçar um perfil adequado ou verdadeira sobre determinada condição, tanto nas situações de emprego, como de marketing, policiamento e diversos outros casos. Se o direito é demasiadamente afetado, provável que o uso seja discriminatório.

O fato é que a inteligência artificial (AI) repercute nas dimensões sociais, econômicas, ambientais, éticas, tornando crucial análise de qualquer tipo de enviesamento, que deve necessariamente ser corrigido no momento da programação da Inteligência Artificial, no curso do aprendizado (adaptabilidade), ou posteriormente. O desenviesamento evita qualquer relação da Inteligência Artificial com a discriminação algorítmica, que deve ser evitada para não inquinar aos vieses associados às predisposições esteriotipantes, discriminatórias e ameaçadoras.

Da mesma forma, a governança algorítmica no uso da Inteligência Artificial deve se tornar inseparável da acconuntability, tendo-se em mente que pessoas serão afetadas pelo processo decisório e que, dessa forma, é necessário oferecer alternativas de responsabilização, o que é pouco evidenciada na Lei Geral de Proteção de Dados Brasileira.

De igual modo deve ser em relação a auditabilidade, que pressupõe a ideia de que um terceiro deva ser capaz de avaliar o método utilizado pelo algoritmo para chegar àquela conclusão.

Como um dos princípios mais desafiadores, também a fairness deve ser inseparável e condição indispensável da governança algorítmica, pois é por trás desse conceito que surge a ideia de que os algoritmos não podem levar a resultados discriminatórios, chamando ao feito a necessidade de evocar a transparência para desmistificar as “caixas-pretas” do sistema algorítmico e obedecer o indispensável protocolo ético-jurídico da inteligência artificial, que abarca tábua necessária de diretrizes para decisão algorítmica.

A regulação estatal sofisticada é condição urgente para sustentar o próprio papel evolutivo da Inteligência Artificial e garantir a defesa do humano ao revés dos danos que a IA está propensa a ocasionar.

_______________________________________________________________________________________________

[1] FREITAS, Juarez; FREITAS, Thomas Bellini. Direito e inteligência artificial: em defesa do humano. Belo Horizonte: Fórum, 2020. p. 29.

[2] SCHAUER, F. Profiles, Probabilities, and Stereotypes. Cambridge: Harvard University Press, 2006 Apud SCHERTEL MENDES, Laura; MATTIUZZO, Marcela. DISCRIMINAÇÃO ALGORÍTMICA: CONCEITO, FUNDAMENTO LEGAL E TIPOLOGIA. Direito Público, [S.l.], v. 16, n. 90, dez. 2019. ISSN 2236-1766. Disponível em: <https://portal.idp.emnuvens.com.br/direitopublico/article/view/3766>. Acesso em: 29 nov. 2020.

Tales Schmidke Barbosa – Advogado. Pós-graduado em Direito Público pela Universidade Federal do Rio Grande do Sul. Pós-graduado em Direito Tributário pelo Instituto Brasileiro de Estudos Tributários – IBET. Sócio do escritório especializado em Direito Administrativo, Tales Barbosa Advocacia e Consultoria.

Compartilhe Facebook Twitter Whatsapp

Próxima
observatório trava de 30%
Mercado
Empresa simples de crédito, uma breve reflexão

Tags Direito e Tecnologia inteligência artificial Judiciário

Recomendadas

História

EXCelso: Os processos em papel ontem e ainda hoje

O processo mais antigo em tramitação no STF é digitalizado. Em breve, restarão apenas 150 processos físicos

Felipe Recondo | ExCelso

Crédito: Pixabay

Mineral

O South by Southwest (SXSW) e as novas fronteiras da mineração

Vozes de finanças e astrofísica preveem que primeiros trilionários da Terra serão forjados no espaço, pela mineração de asteroides

Tiago de Mattos | MineraL

Mariana, Minas Gerais Vistoria realizada pelo Ibama em julho de 2016 no trecho atingido pelo rompimento da barragem de rejeitos da mineradora Samarco, em Mariana, Minas Gerais. Foto: Felipe Werneck/Ibama

Calamidades públicas

Romper ou manter a cultura do desastre?

Para lidar com desastres, AGU deve viabilizar políticas públicas e aporte de recursos federais

Marcelo Kokke | Artigos

Dimas Covas, diretor do Instituto Butantan, exibe a CoronaVac (Foto: Governo de São Paulo)

Coronavírus

Butantan planeja exportar 27 milhões de doses da CoronaVac

E-mail ao qual o JOTA teve acesso diz que quantidade é para países que pediram ajuda para iniciar imunização

Manoela Albuquerque | Saúde

Quarentena: ensaio pela janela de casa. Crédito: Filipe Araujo/Fotos Públicas

CORONAVÍRUS

Pandemia: um ano depois, o Brasil se fecha novamente

Estados e capitais já editaram mais de 600 medidas de restrição à circulação; 48 só nos primeiros dias de março

Débora Brito | Jotinhas

Crédito: unsplash

Direito Tributário

Inclusão do ICMS no cálculo da CPRB

Conflito de precedentes do STF e STJ em matéria tributária

Maria Angélica Feijó | Artigos

LGPD

Privacidade

A ineficiência do Direito na prevenção de vazamentos de dados pessoais

Carlos Roberto Buriti

Agenda da Privacidade e da Proteção de Dados

Legítimo interesse na LGPD

Mariana Rielli, Bruno R. Bioni

Casa JOTA

Congresso

Senador Nelsinho Trad relativiza vitória do governo na aprovação da PEC Emergencial

Letícia Paiva

Live

Casa JOTA: entrevista com senador Nelsinho Trad

Redação JOTA

Aprovômetro

Previsibilidade

Aprovômetro do JOTA previu corretamente 71% das propostas que viraram lei em 2020

Daniel Marcelino, Fernando Mello

Lista

Retrospectiva 2020 – As matérias e artigos mais lidos de janeiro

Redação JOTA

TJSP

DANOS MORAIS

TJSP: dano moral por reportagem na internet não prescreve após três anos

Clara Cerioni

Direito de família

Mesmo com teste de DNA negativo, TJSP decide que homem é pai de criança

Mariana Ribas

Reforma tributária

Em evento

Marcelo Ramos defende pacto entre Poderes se reforma tributária não for aprovada

Alexandre Leoratti

Direito Tributário

TCU: auditoria indica que Carf não tem condições de absorver reforma tributária

Alexandre Leoratti, Guilherme Pimenta

reforma administrativa

CASA JOTA

Bivar: ‘Risco de crise institucional é se deixarmos Daniel Silveira impune’

Clara Cerioni

Administração Pública

A PEC 32/2020 pavimenta o caminho para a boa qualidade dos serviços públicos?

Ismar Viana

Regulação

Parte III

Perspectivas das Análises de Impacto Regulatório – AIRs no Brasil

Ana Frazão

Regulação

Como fazer da concessão um nada jurídico: o caso Lamsa

Maís Moreno, Tiago Francisco da Silva

Liberdade de Expressão

Liberdade de expressão

Subprocuradores querem que MPF oficie MEC por censura a manifestação política

Ana Pompeu

Liberdade de expressão

Lei de Segurança Nacional: PTB requer ao STF que norma seja declarada inconstitucional

Luiz Orlando Carneiro


  • EDITORIAS
    • STF
    • Tributário
    • Saúde
    • Trabalho
    • Regulação
    • Legislativo
    • Carreira
    • Colunas
    • Artigos
  • Temas
    • Congresso
    • LGPD
    • Anvisa
    • Reforma tributária
    • Carf
    • Liberdade de Expressão
    • TCU
    • Covid-19
    • PIS/Cofins
  • Siga o JOTA
    • YouTube
    • Spotify
    • Twitter
    • LinkedIn
    • Instagram
    • Facebook
  • Sobre
    • Quem Somos
    • About Us
    • Blog
    • Ética JOTA
    • Política de diversidade
    • Termos de uso
    • Política de privacidade
    • Seus dados
  • Assine
    • Cadastre-se
    • PRO
    • Atendimento
    • Contato
    • FAQ
    • Trabalhe Conosco
Vá para versão mobile