Direitos fundamentais

Comitê de Supervisão do Facebook é, enfim, colocado à prova

É possível apostar que futuras decisões da plataforma terão impactos relevantes para a liberdade de expressão

Comitê de Supervisão do Facebook
Mark Zuckerberg, um dos fundadores do Facebook / Foto: Brian Solis/Flickr

Em relativo curto período, algumas poucas plataformas de internet cresceram ao ponto de se tornarem responsáveis pela governança privada de discursos de bilhões ou centenas de milhões de usuários na internet. Hoje, esse cenário é dominado pelo Facebook, Youtube e Twitter.

Se inicialmente essas empresas se percebiam e se apresentavam apenas como empresas de tecnologia, os desafios crescentes de suas operações, bem como as demandas cada vez mais frequentes e diversificadas por parte do público, fizeram com que assumissem gradativamente o papel de tomada de decisões editoriais e valorativas na elaboração e aplicação de suas regras de discursos[1].

 As posturas e iniciativas das plataformas acabam sendo naturalmente objetos de críticas e cobranças por parte do público – muitas vezes contraditórias entre si, como em casos de oposição entre pedidos de mais controle ou de menos controle sobre as publicações. Ao lidar com os limites de “permitido” e “proibido” das postagens, as plataformas traçam linhas na areia que inevitavelmente darão margem a discordâncias legítimas. Há inúmeros exemplos nesse sentido[2].

Por isso, tão importante quanto as regras em si que essas plataformas implementam dentro de seus campos de autonomia é a construção de um grau satisfatório de legitimidade ao processo pelo qual elas são elaboradas, justificadas, contestadas, interpretadas e eventualmente revisadas. A legitimidade da governança, por si só, importa.

Essa é uma chave importante para que as pessoas preocupadas com o estado da liberdade de expressão no ambiente digital e seus desafios possam avaliar o futuro desempenho do Comitê de Supervisão do Facebook (inicialmente chamado de sua “Suprema Corte externa”). O órgão passou desde a última semana a receber recursos de usuários contra decisões da empresa pela derrubada de postagens.

Trata-se de uma empreitada inovadora e ousada: notoriamente, Mark Zuckerberg – fundador, CEO e acionista majoritário – costumava concentrar em si a capacidade (e a prática) de todas as decisões finais sobre as políticas da empresa. Isso torna ainda mais extraordinária sua decisão de criar um órgão independente, formado por pessoas externas à empresa, para tomar decisões finais, transparentes e vinculantes no campo da moderação de conteúdo.

Os casos enviados ao Comitê poderão ser formulados pelos usuários (a partir de procedimentos de recursos, por formulários digitais na plataforma) ou pelo próprio Facebook. O órgão terá ampla liberdade para decidir quantos e quais casos serão analisados, já que a empresa recebe cerca de um milhão de denúncias de violações de termos de uso por dia – as escolhas serão feitas por um comitê de seleção, composto de modo rotativo por uma parcela dos integrantes do Comitê.

O objetivo é de que se dedique aos casos mais relevantes e paradigmáticos – e suas decisões também irão valer para a plataforma Instagram. Para garantir a autonomia do Comitê, o Facebook montou um fundo independente dotado de cerca de 130 milhões de dólares que irá financiar suas atividades pelos próximos seis anos, incluindo uma equipe própria de funcionários.

As decisões do Comitê serão vinculantes ao respectivo caso concreto. A competência do órgão abarca diversas áreas de moderação de conteúdo, incluindo políticas da empresa para anúncios ou mesmo conteúdos rotulados como “falsos” por parceiros que realizam checagem de fatos. Como não poderia deixar de ser, não serão acatadas decisões apenas nos casos ou situações em que isso implicaria a violação pelo Facebook de alguma legislação nacional ou ordem judicial.

Além disso, o Comitê já anunciou que, gradativamente, passará a rever também as decisões da empresa que decidem manter no ar um determinado conteúdo – ou seja, avaliando pedidos de derrubada feitos por usuários por suposta infração aos termos de uso; como em casos de discursos de ódio, desinformação ou teorias conspiratórias.

Algumas dúvidas ainda permanecem sobre suas competências: a principal por ora é se o Comitê poderá rever as decisões que determinam a diminuição da visibilidade de postagens, medida que pode ser tomada como parte da política de moderação de conteúdo, implicando um menor grau de intervenção em comparação a uma simples derrubada. É o exemplo da recente decisão do Facebook de diminuir a distribuição de artigo do tabloide americano New York Post que veiculava supostas denúncias contra o candidato democrata à presidência, Joe Biden.

O comitê hoje é composto por 20 integrantes, com a perspectiva de ser ampliado para 40. Entre eles, o advogado e professor brasileiro especialista em direito digital Ronaldo Lemos. Cada membro serve no máximo três mandatos de três anos – e os conselheiros devem se reunir pessoalmente pelo menos uma vez ao ano; na maior parte do tempo, os julgamentos serão virtuais.

O processo que levou a esse desenho institucional envolveu uma ampla consulta em nível global; foram ouvidas cerca de duas mil pessoas em 88 países. O principal ponto de sugestão acatado foi a atribuição do Comitê para sugerir mudanças das regras da política de conteúdo.

Como suas decisões são vinculantes apenas ao caso concreto, quando for feita uma recomendação de alteração de regra geral para a empresa, o Facebook fica obrigado a se manifestar sobre ela – acatando-a ou fornecendo as razões para uma rejeição. Uma espécie de paralelo com um “weak judicial review”, gênero de controle de constitucionalidade que reserva às cortes a capacidade mais limitada de obrigar o legislativo a se pronunciar sobre aquele juízo, cabendo a este último a decisão final a respeito.

Em 2019 o Facebook já havia estabelecido de modo mais claro os valores que devem guiar não apenas as atividades direta da empresa, mas também as decisões de seu Comitê de Supervisão. O primeiro e mais abrangente deles é a “voz” – dar voz às pessoas, o que corresponde a uma liberdade de expressão (publicação).

Esse direito, porém, pode ser restringido quando em conflito com demais valores: autenticidade, segurança, privacidade e dignidade. Espera-se que o Comitê fundamente suas decisões em torno da ponderação desses valores a partir das regras estabelecidas e dos casos concretos em análise.

Caso seja bem-sucedida, essa dinâmica irá emular a hermenêutica de adjudicação de direitos fundamentais. Essa lógica parece colocar claramente a política de moderação de conteúdo no bojo de um sistema de regras e princípios, no qual no qual as colisões entre direitos e valores subjacentes são reconhecidas como inevitáveis e os conflitos são resolvidos por meio de ponderações e apresentações de argumentos.

Como aponta Evelyn Douek, o Comitê não servirá para corrigir todas as decisões individuais de moderação de conteúdo e nem, por outro lado, para definir regras globais de discursos. Seu “verdadeiro valor” decorre de duas “mais modestas” funções: iluminar defeitos na formulação de regras e, principalmente, garantir legitimidade a regras que são aplicadas a multidões de pessoas, “mesmo que elas discordem da substância dessas regras”[3].

Sua principal virtude, portanto, ainda a ser testada e comprovada, seria a garantia de um foro público para apresentações de razões e argumentos que sustentem publicamente uma determinada decisão, aumentando a possibilidade de controle intersubjetivo sobre as regras de moderação de conteúdo do Facebook – e, por consequência, sua legitimidade.

Por ora restrito à maior e mais importante rede social, é possível que o Comitê de Supervisão, se bem-sucedido, passe a abranger também outras plataformas globais que decidam aderir à sua “jurisdição”. Ou que demais plataformas repliquem esse modelo, cada qual com seu comitê ou grupo de conselhos.

A ampliação de um modelo que garanta mais transparência e controle social sobre as decisões de moderação de conteúdo pelas demais grandes plataformas globais seria também especialmente relevante porque elas possuem iniciativas conjuntas e centralizadoras para a definição de conteúdos a serem derrubados, como nos casos de propagandas de terrorismo e, mais recentemente, desinformação a respeito da pandemia ou em cenários eleitorais[4].

Ao mesmo tempo, há outras propostas para a instituição de órgãos de supervisão formado por empresas, entidades e especialistas que buscam, em um nível global ou regional, criar instâncias regulatórias sobre moderação de conteúdo que estejam localizadas entre a regulação estatal e a autorregulação por empresas.

Trata-se de uma experimentação institucional ousada. Os sucessos e as falhas dessa empreitada ainda estão para serem vistos, debatidos e testados. Por um lado, o Comitê levanta promessas de que desenhos institucionais privados possam incorporar um grau relevante de proteção a direitos fundamentais no plano transnacional, apontando caminhos para uma noção de constitucionalismo que é desatrelada do paradigma dos estados nacionais[5].

Por outro, essa espécie de autorregulação irá dialogar com as inúmeras pressões e eventuais posturas regulatórias de variados países, intensificando o processo de dinâmica normativa já em curso (ora mais colaborativa, ora mais competitiva) entre as regras autônomas das plataformas e aquelas das ordens jurídicas tradicionais.

É possível apostar que futuras decisões do Comitê de Supervisão do Facebook terão impactos tão ou mais relevantes para as condições da liberdade de expressão na internet do que tradicionais decisões judiciais. Isso, por si só, basta para sejam acompanhadas de perto e com atenção.

 

 


O novo episódio do podcast Big Data Venia analisa privacidade, direito, negócios e as opções do Brasil na guerra fria digital entre EUA e China. Assista:


[1] Este texto reproduz algumas ideias e trechos da tese de doutorado “Liberdade de expressão nas redes sociais: o problema jurídico da remoção de conteúdo pelas plataformas”, apresentada à Faculdade de Direito da USP em 2020.

[2] Um deles sendo a polêmica em torno da decisão do Facebook de não checar a veracidade de anúncios políticos pagos nos Estados Unidos: a American Civil Liberties Union (ACLU) concordou com a postura, que por sua vez atraiu críticas da Electronic Frontier Foundation (EFF) (“FEC Comissioner rips Facebook over Political Ad Policy: ‘This will not do’”, National Public Radio, 09/01/20). Em sentido semelhante, a controvérsia em torno da decisão do Facebook e Twitter de bloquear ou diminuir visibilidade de artigo do tabloide americano New York Post, que veiculava denúncia contra o candidato Joe Biden, em meio à eleição presidencial norte-americana: Pablo Ortellado classificou a postura como perigosa censura privada (“Medidas de Facebook e Twitter merecem ser classificadas como censura privada”, Folha de S. Paulo, 15/10/2020), enquanto Pedro Doria saudou-a como corajosa e positiva decisão editorial (“A coragem de Face e Twitter nos EUA”, Estado de S. Paulo, 15/10/2020). De modo mais amplo, também é sintomática a decisão do Facebook de proibir discursos que negam o Holocausto, depois de anos de enfática defesa pela empresa de sua postura em sentido contrário.

[3]Evelyn Douek, “Facebook´s ‘Oversight Board’: move fast with stable infrastructure and humility”, North Carolina Journal of Law and Technology Volume 21 (2019).

[4] Evelyn Douek, “The rise of content cartels”, Knight First Amendment InstituteColumbia University, artigo publicado em 11/02/20.

[5] Ver: Nicolas Suzor, Lawless: the secret rules that govern our digital lives, Cambridge University Press, 2019.