CONTEÚDO PATROCINADO

Inteligências artificiais já estão entre nós, agora é preciso torná-las responsáveis

Diversidade nas equipes, atenção no desenvolvimento e monitoramento: o que é preciso para tecnologia superar nossos vieses

Foto: Unsplash

É impossível ignorar a crescente  presença de ferramentas que usam como base as Inteligências Artificiais (IAs)nas tarefas cotidianas, como a assistente que nos lembra de checar a previsão do tempo pela manhã; às menos evidentes, caso das recomendações que parecem ler nossa mente; ou aquelas que acumulam bem mais conhecimento do que nossa memória daria conta. 

Essa quase onipresença tem aumentado a discussão sobre formas de regulamentar esses sistemas, como, no caso brasileiro, do debate no Senado Federal por meio do PL 21/2020, que já foi aprovado na Câmara. Os riscos da sua utilização sem moderação também são alvo de debate sobre se seria possível, sem limitar o desenvolvimento tecnológico, tornar as IAs mais socialmente responsáveis. Especialistas ouvidos pelo JOTA acreditam que sim. 

Para a diretora e presidente do Laboratório de Políticas Públicas e Internet (Lapin), Cynthia Picolo, o atual cenário de expansão tecnológica não tem retorno: “A tecnologia envolvida na IA é extremamente transversal. Além dela atingir todas as esferas, econômicas e sociais, ela está embutida nos produtos em si, no mercado, no mercado de trabalho”. Assim, na perspectiva dela, o caminho mais consciente de se pensar a tecnologia é como ela pode ser realmente inclusiva e atuar pelo bem da sociedade. 

Um dos pontos essenciais para discutir o tema seria a centralidade da pessoa humana, na visão de Alice de Perdigão Lana, coordenadora da área de Cultura e Conhecimento do InternetLab. “As IAs, mesmo as generativas, como o caso do ChatGPT, continuam sendo ferramentas, ou seja, dependem de input humano, seja em seu desenvolvimento, seja por meio de um comando”, afirma. 

Isso significa que, para se antecipar a eventuais desvios de valores do AI, é preciso dar um passo atrás, focando nas etapas que envolvem humanos antes de a tecnologia ir a público. “Faz mais sentido pensarmos em desenvolvimento responsável da IA, colocando no centro o humano, e não a máquina. A IA não tem uma ética ou moral interna, mas medidas preventivas podem e devem ser levadas em consideração em seu desenvolvimento e uso”, completa a coordenadora.

Christian Perrone, head de Direito & Tecnologia e GovTech do Instituto de Tecnologia e Sociedade (ITS) do Rio, defende alguns requisitos básicos a serem considerados para que uma ferramenta atue com maior responsabilidade. “Primeiro, a equipe envolvida no desenvolvimento do sistema deve ser diversa; e segundo, ela precisa ser sensível para os diferentes contextos sociais, porque nunca vai haver a composição de toda diversidade humana em um só lugar. As pessoas experienciam o mundo de uma maneira muito diferente entre si”.

A necessidade de refletir diferentes realidades, para Perrone, muitas vezes impacta diretamente o funcionamento do propósito para qual uma nova ferramenta foi criada. “Se você desenvolver uma super IA que faça análise de imagem para verificar se uma pessoa tem ou não tem câncer de pele, mas ela não utilizar em seus dados de imagens pessoas de diversas tonalidades e etnias, a capacidade de fato de exploração da ferramenta não vai ser positiva”, exemplifica. 

Lana, do InternetLab, realça também a necessidade de atenção para que os sistemas não reproduzam vieses e preconceitos arraigados à sociedade – inclusive, essa poderia ser uma oportunidade de mitigar inclinações tipicamente humanas, em vez de reforçá-las. Isso pode ser calibrado no “treinamento” de um novo tipo de inteligência, quando ela aprende a partir do conhecimento existente (produzido por humanos, até agora). 

Ela dá um exemplo considerando o fato de que, historicamente, homens brancos são a ampla maioria dos CEOs. “Se esses dados em retrospecto servirem para alimentar uma IA que vai selecionar futuros CEOs, ela entenderá que perfis de homens brancos são mais adequados para esse tipo de cargo”, explica.

“O mesmo vale para situações opostas. Vivermos em uma sociedade racista e marcadamente excludente, o que tem como um reflexo a população carcerária ser majoritariamente negra; se isso for usado para alimentar uma IA de prevenção de crimes, ela vai traçar e reproduzir um padrão racista”, afirma Lana. 

Para evitar que problemas como esses exemplos aconteçam, Picolo, do Lapin, indica algumas possibilidades de enfrentamento: “Um instrumento que é um passo importante ao longo do desenvolvimento de uma ferramenta é o que chamamos de Avaliação de Impacto Algorítmico. A equipe envolvida no processo de criação analisa de que forma essa tecnologia vai impactar usuários e sociedade e quais as medidas são possíveis caso o pior aconteça”.

Ela acrescenta ainda outros aspectos: a educação midiática e a regulamentação e moderação do uso da tecnologia. “Nós, como usuários, precisamos entender minimamente sobre elas, ter mais consciência sobre o que usamos. E quem desenvolve também tem um papel, de explicar como aquela ferramenta funciona, o porquê ela foi desenhada. Existe também uma responsabilidade das plataformas de se manter alerta em relação a remover interações danosas”, avalia. 

Para Christian Perrone, haveria ainda um grande potencial nesse movimento de, deixando para trás o reforço às imperfeições das sociedades humanas, trabalhar para neutralizá-las: “Criar e manter uma IA é ter a possibilidade de entender nossos vieses e, de alguma forma, não automatizá-los e reproduzi-los. Existem oportunidades de tornar essas tecnologias mais responsivas para os valores centrais a nós, desde a concepção de que tipo de ferramenta gostaríamos de ter, no desenvolvimento dessa ferramenta e na implementação dela”, afirma.

Nesse sentido, seria essencial pensar em representatividade e participação desde o início, e também no constante monitoramento do funcionamento da ferramenta. 

Sair da versão mobile