Opinião & Análise

Artigo

Desinformação, autorregulação regulada e responsabilidade das plataformas

Quem deve atuar na linha de frente contra a desinformação, o Judiciário ou as plataformas?

fake news
Crédito: Pexels

Sopesar os limites da liberdade de expressão e a desinformação é uma tarefa permanentemente complexa e demanda contínuo esforço da comunidade jurídica brasileira. Porém, não há como abdicarmos esforços nesta direção, mormente considerando o momento atual, diante da criticidade da pauta. A maturidade do debate está justamente no reconhecimento da complexidade do assunto.

Em uma democracia, um dos pilares para os processos de tomada de decisão é a transparência em relação aos critérios utilizados pelo decisor. A ciência do cidadão sobre quais foram os critérios decisórios é uma garantia contra o arbítrio e a seletividade, é um instrumento poderoso para fiscalização da coerência de nossas instituições, públicas e privadas.

E na medida em que as plataformas atingiram um nível em que são praticamente a infraestrutura pública de comunicação da sociedade, ou seja, são meios de comunicação em massa, há um interesse público em exigir delas uma absoluta transparência nos critérios de decisão, pois eles afetam a forma como a esfera pública agora é constituída. Há uma base privada, na relação contratual com cada usuário, mas com esta dimensão pública, diante do impacto em toda a população, o que se denomina efeito de rede comunicacional. Nesse sentido, todas as decisões das plataformas devem ser fundamentadas e transparentes, pois da mesma forma que as plataformas potencializam a liberdade de expressão, também a restringe.

Nesse sentido, há inúmeras medidas coerentes para mitigar os efeitos maléficos da desinformação, como a limitação de alcance para algumas publicações mediante fact-checking e calibragem de algoritmos; a vedação de utilização de contas inautênticas ou automatizadas para práticas nocivas; a disponibilização de ferramentas de aviso sobre a sensibilidade de conteúdos publicados; modelos transparentes de moderação de conteúdo, com regras específicas a respeito da remoção expondo os critérios utilizados, dentre outras.

Assim, o aprimoramento dos critérios de identificação de desinformação, por meio do comportamento de contas e não necessariamente de conteúdo, é também uma forma de proteção à liberdade de expressão. Em uma sociedade preocupada com os efeitos maléficos da desinformação, definir tais critérios permite mitigar a possibilidade de arbitrariedade do decisor, seja ele uma plataforma, ao remover ou não um conteúdo, ou um magistrado, ao condenar ou não uma conduta. O exame atento, cuidadoso e preciso do que pode ser caraterizado como desinformação e como combatê-la é, portanto, um esforço de proteção à liberdade de expressão e não ao seu combate.

Na Alemanha, conforme estudos aprofundados do Prof. Ricardo Campos (Goethe Universität Frankfurt, na Alemanha), mostra como aquele país tem se aproximado cada vez mais de uma responsabilidade do meio. Entretanto, não se trata de responsabilidade do meio por não remover conteúdos livremente, mas a plataforma se torna responsável na medida em que não adota procedimentos para notificação, remoção de conteúdo e direito de defesa. Isso foi estabelecido no Network Enforcement Act (“NetzDG”), em 2017, que exige que determinadas plataformas mantenham procedimentos efetivos para processar reclamações sobre conteúdo ilegal. Alguns pontos relevantes da referida Lei:

  • Não se aplica a todas as plataformas (como redes sociais com menos de 2 milhões de usuários na Alemanha);

  • Há um rol taxativo do conteúdo considerado manifestamente ilegal, que deve ser removido em 24h após notificação. São ilícitos tipificados penalmente, como crime de racismo;

  • Outros conteúdos ilegais, mas não manifestamente ilegais, devem ser removidos em até 7 dias após notificação;

  • Pode haver dilação desses 7 dias no caso de dúvidas da plataforma sobre a ilegalidade do conteúdo, podendo, por exemplo: a) abrir o contraditório; ou b) submeter a dúvida a um órgão de autorregulação regulada;

  • As plataformas devem preparar um relatório periódico sobre o tratamento dos pedidos, que servem para que a sociedade e as autoridades avaliem a precisão da interpretação das decisões administrativas;

  • O órgão de autorregulação regulada deve ser chancelado pelo MJ alemão, que avaliará a sua independência e a experiência dos examinadores.

Assim, é importante nos perguntarmos quem deve atuar na linha de frente contra a desinformação, o judiciário ou as plataformas? A resposta, a meu ver, são as plataformas, por meio do instituto da Autorregulação Regulada, também defendido pelo já mencionado Prof. Ricardo Campos, no qual as políticas internas adotadas pelas plataformas futuramente podem ser reconhecidas e constantemente avaliadas por uma autoridade formada com representatividade plural dos setores da sociedade.

Ou seja, as plataformas deverão prever em seus contratos de prestação de serviços (Termos de Uso), de forma transparente, clara e precisa os procedimentos para o combate a desinformação, sejam eles unilaterais, autocompositivos ou heterocompositivos, prevendo os prazos e mecanismos para a negociação, mediação, conciliação e decisões privadas, preferencialmente mediante o contraditório e ampla defesa.

Esses procedimentos devem ser publicados com o máximo de transparência, em conjunto com relatórios de atividades das medidas aplicadas para desestímulo e combate a desinformação, viabilizando o devido acompanhamento e escrutínio da sociedade, bem como pela futura autoridade a ser criada para reconhecer tais procedimentos como válidos e conferir permanente melhorias em conjunto com as plataformas e a sociedade.

Impor deveres procedimentais aos intermediários tem sido o caminho adotado na regulação europeia de direito de autor e propriedade intelectual presente nas Diretivas 2001/29/CE, 2004/48/CE e 2019/7909, por exemplo.

Reitera-se, o judiciário não deve ser a porta de entrada para a resolução destas controvérsias, mas sim, quando instado, um observador/garantidor da constitucionalidade e legalidade dos padrões de solução de controvérsias das plataformas.

Diante de todo o exposto, acredito que a futura lei de combate às fake News possa ser híbrida. Explico:

1) Reduzidas obrigações já no texto legal prevendo que as plataformas, de acordo com as suas especificidades e o seu porte, criem mecanismos para que:

Vedem contas inautênticas ou bots para práticas nocivas;

Moderem conteúdo, com contraditório e ampla defesa;

Publiquem relatório de transparência sobre a política adotada e medidas realizadas.

2) Crie o mecanismo da autorregulação regulada em que:

a. As plataformas, de acordo com as suas especificidades e o seu porte, adotem políticas internas, com regras claras e transparentes, como as previstas no item “1” acima, bem como acerca:

De fact-checking para calibragem dos algoritmos visando o desestímulo a propagação em massa e vedação de impulsionamento por meio de publicidade paga;

Das medidas técnicas para detectar fraude;

Da confirmação de identificação dos usuários, em caso de denúncias por desrespeito às suas políticas.

b. Se crie uma autoridade multisetorial para: (i) atualizar de forma permanente códigos de conduta para as plataformas; (ii) reconhecer as políticas adotadas pelas plataformas; e (iii) avaliar os relatórios de transparência das plataformas.

3) Disponha sobre novos tipos penais para quem financia a desinformação, não para punir o indivíduo que compartilha a notícia falsa, mas sim a dinâmica da escala industrial dolosa da desinformação. Isso passa inexoravelmente por tipos penais que foquem no financiamento da desinformação.

Assim, penso que esse hibridismo que defendo pode trazer o equilíbrio necessário na futura legislação, ao prever poucas, mas necessárias obrigações junto às plataformas já em seu texto legal, deixando o restante para o instrumento da autorregulação regulada que é um mecanismo jurídico utilizado em larga escala para âmbitos tecnológicos, além de prever novos tipos penais diferenciando um plano individual do plano da escala industrial gerida por financiamentos intransparentes de impulsionamento, garantindo, assim, uma esfera pública saudável e plural, na qual a liberdade de expressão tem sua maior manifestação


Cadastre-se e leia 10 matérias/mês de graça e receba conteúdo especializado

Cadastro Gratuito