Inteligência Artificial

Mais que deepfake: a perícia forense está preparada para a inteligência artificial generativa?

Texto, foto, vídeo e voz criados totalmente do zero, e não só adulterados, prenunciam um novo potencial de desinformação

sandbox
Crédito: Unsplash

O argumento dos advogados da fabricante de carros Tesla de que uma fala do CEO Elon Musk, registrada em vídeo e áudio, disponível no YouTube, não poderia ser usada em juízo porque poderia ter sido alterada por deepfake é o prenúncio de um dilema para o processo judicial. Principalmente, para a perícia forense, que precisará lidar com manipulações da realidade mais sofisticadas, e para a interpretação do que se entende por evidência válida.  

No caso em questão, em que é investigada a morte de um piloto da Tesla em um acidente, a juíza Evette Pennypacker recusou o raciocínio, tido como “profundamente problemático”, e determinou que Musk deponha sob juramento. O acidente teria sido causado por falha do piloto automático da empresa, o qual a fala de Musk atestava a segurança. 

A ação vai a julgamento em 31 de julho e terá um desfecho, mas o debate segue. A razão não é só o deepfake, como técnica que faz uso da inteligência artificial, a IA, para editar profundamente conteúdos. Mas a própria inteligência artificial, agora em sua versão generativa. Em outras palavras, uma inteligência artificial que usa algoritmos e machine learning para criar conteúdos totalmente novos a partir de dados, não se limitando a analisá-los ou rearranjá-los, como na IA dita tradicional.

Um exemplo veio a público no mês passado, quando a startup americana Metaphysic’s apresentou sua nova tecnologia de edição de vídeo em tempo real em uma conferência do TED, em Vancouver, no Canadá. Foi a primeira exibição aberta do chamado live deepfake, já movido à inteligência artificial generativa.

No palco, o fundador do TED, Chris Anderson, entrevistava o fundador da Metaphisyc’s, Tom Graham. Num vídeo exibido ao fundo, Graham assumiu totalmente o rosto e depois a voz de Anderson, que não escondeu o seu desconforto. A plateia ficou desnorteada. Tudo aconteceu ao vivo.

A cena aponta para o futuro. “Há 20 anos, a imagem da cena de um crime era uma evidência cabal. Dizíamos que a imagem valia por mil palavras. Hoje, vale por mil mentiras”, diz o cientista da computação Anderson Rocha, diretor do Recod.ai, o Laboratório de Inteligência Artificial da Universidade Estadual de Campinas (Unicamp).

Institutos como o Recod.ai pesquisam diversos usos da inteligência artificial no combate à desinformação, investigando novos meios de detecção de conteúdo adulterado em foto, vídeo e áudio. “O primeiro passo é entender que a deepfake é só a ponta do iceberg”, diz Rocha. “Lidamos com algo maior criado pela IA generativa, que é o campo das realidades sintéticas”.

Essa implicação filosófica da IA generativa para o Direito é bem concreta. E tem explicação mais fácil do que se imagina. A argumentação dos defensores da Tesla, por exemplo, foi encarada como realista por alguns, já que a figura de Musk, de fato, é muito explorada em deepfakes. Outros vislumbraram no caso apenas ceticismo extremo estratégico. Nas palavras a juíza Pennypacker, um desejo de “imunidade” para as declarações de Musk.

Como funciona hoje a perícia de conteúdo manipulado

Assim como o uso da inteligência artificial automatizou a manipulação de conteúdo, também é possível treiná-la para identificar manipulações, das mais artesanais às criadas pelos softwares mais populares. “É um jogo de gato e rato”, explica Rocha.

Nesse caso, se o software é conhecido, o trabalho pericial da inteligência artificial é mais fácil. Em estudo publicado em abril de 2022 na revista Transactions on Information Forensics and Security, Anderson Rocha e um grupo de pesquisadores de Hong Kong apresentaram um algoritmo que, a partir de 112 mil imagens verdadeiras ou manipuladas por quatro softwares de deepfake, atingiu 95% de acerto na identificação de rostos alterados em vídeos de alta resolução. 

Na realidade forense, no entanto, ainda é difícil saber quem é rato ou gato. “Hoje, a adulteração simples é detectável com análise de pixels, compressão e metadados. A inteligência artificial entra numa segunda etapa, com machine learning e redes neurais”, diz o advogado Cassio Lacaz, especializado em novas tecnologias. “Mas difícil mesmo é diferenciar manipulação e criação”.

Essa dificuldade parte de uma constatação teórica. De fato, a perícia forense desenvolveu-se até hoje a partir da ideia de que todo contato deixa vestígio. É o Princípio de Locard, formulado pelo criminologista francês Edmond Locard nos anos 1920, um impulsor da ideia de cientificidade da evidência.

Assim como o Princípio de Locard vale para a prova física, ele segue sendo aplicado ao mundo digital. Em outras palavras, a adulteração de um conjunto original de dados digitais também deixa vestígios igualmente digitais e identificáveis.

“A cibersegurança se desenvolveu dessa maneira, com a busca e a consequente reparação de vulnerabilidades dos sistemas computacionais”, diz o perito Wanderson Castilho, especialista em crimes eletrônicos. “Sempre há rastro. Um computador não mente para o outro”. 

Os impactos da IA generativa para a perícia forense

Se a IA em seu estágio atual ainda deixa algum tipo de vestígio, a modalidade generativa caminha em direção a um duplo objetivo: criar conteúdo novo, em vez de adulterar o existente, e aprender a eliminar os vestígios da própria criação.

Com ou sem o Princípio de Locard, a discussão sobre vestígios ganhou um novo sentido. “Por exemplo, todo processo de interação entre luz e câmera, do analógico para o digital, deixa um vestígio, um ruído. O que pode denunciar a manipulação de conteúdo por IA, hoje, é justamente a ausência desse ruído, a ausência da imperfeição”, diz Rocha. 

A recente foto viral do Papa Francisco vestindo uma jaqueta branca é um bom exemplo disso. Criada pelo Midjourney, um software que gera imagens hiperrealistas a partir de IA generativa, a imagem foi colocada à prova exatamente pelo realismo. Numa análise do site americano The Verge: luz perfeita demais, superfícies brilhantes demais, pose dramática demais, cores saturadas demais. Fake.

Esse raciocínio pode levar a uma conclusão contraintuitiva. “Se uma IA generativa for capaz de simular a própria imperfeição, é bem mais difícil dizer o que é verdadeiro, falso ou sintético”, complementa Rocha. Nessa hipótese, aos critérios de verdadeiro e falso que guiam o perito faltaria adicionar um outro, que não é nem verdadeiro, nem falso, ou que são ambos: o sintético.

Quais saídas éticas estão em discussão

Na prática, há limites para se colocar em xeque toda e qualquer presunção de existência e veracidade de uma prova ou de um fato. “Nós não abandonaremos as ideias de verdadeiro e falso”, diz a professora e advogada Tainá Aguiar Junquilo, pesquisadora do Instituto de Tecnologia e Sociedade (ITS Rio) e do Lawgorithm. “O que se discute hoje são algumas saídas éticas. Como, por exemplo, criar selos ou certificações de conteúdo, para alertar às pessoas que certo conteúdo foi produzido pela IA”. 

Além disso, especialistas alertam para outros impactos imediatos da inteligência artificial generativa. Como o potencial de desinformação de um deepfake independe de sua complexidade técnica, pode ser mais difícil identificar manipulações em conteúdos mais simples e ágeis, como mensagens de áudio de WhatsApp, do que em técnicas sofisticadas como o live deepfake.

O tema também está no radar do Judiciário. Desde 2018, o Código Penal brasileiro possui um artigo, o 218-C, que criminaliza montagens digitais de todo tipo, incluído o deepfake, de cunho pornográfico. A punição vai de um a cinco anos. Em 2020, uma resolução do Conselho Nacional de Justiça (CNJ) também disciplinou no uso de IA no Judiciário, ainda que em seus termos mais gerais, sem menção à modalidade generativa.

A Lei de Crimes Cibernéticos e a Lei Geral de Proteção de Dados Pessoais (LGPD) também abordam o tema de forma fragmentada. Há chance ainda de de as novas realidades sintéticas e suas inéditas consequências entrarem nas discussões do PL das Fake News e do Marco Regulatório da Inteligência Artificial.

Sair da versão mobile