
Em 6 de janeiro, vivemos um momento histórico: o Capitólio, sede do Congresso estadunidense em Washington, foi invadido por apoiadores de Donald Trump após um comício realizado pelo presidente. O objetivo dos manifestantes, em linha com o discurso de Trump, era deixar claro que, sob alegação de fraude nas eleições, não aceitariam resultado eleitoral que lhes fosse desfavorável.
Após a invasão, Trump chegou a publicar um vídeo em suas contas no Twitter e Facebook em que solicitava que os manifestantes fossem para casa. Contudo, de forma simultânea, reiterava alegações infundadas de fraude (chegando a dizer que “foi uma eleição roubada de nós”), afirmação que já havia feito desde o ano passado, antes mesmo do início das eleições.
Durante a tarde, alguns tuítes de Donald Trump de mesmo teor receberam um rótulo específico do Twitter, avisando que seu conteúdo conteria desinformação sobre o processo eleitoral norte-americano – nada novo até aqui, já que durante as próprias eleições uma série de publicações de Trump recebeu aviso similar. Com tal rótulo, as publicações não podem mais ser retuitadas ou respondidas.
Como a invasão ao Congresso se prolongou durante a tarde e Trump realizou novas publicações em que alegava fraude eleitoral, tanto o Twitter quanto o Facebook decidiram remover o vídeo publicado pelo presidente por conter “incitação de violência” que, aliada a uma situação emergencial, poderia agravar o desenrolar das manifestações no Capitólio. O Twitter também removeu duas publicações de Trump e, ainda na noite de 6 de janeiro, após aviso de “risco de violência” em suas postagens, decidiu suspender a conta de Donald Trump por 12 horas, impedindo-o de realizar qualquer publicação nesse período, e avisando-o que, se as postagens com tal aviso não fossem removidas, a conta poderia ser novamente suspensa por 12 horas.
Após essa segunda fase de 12 horas, a depender do desenrolar dos fatos, o Twitter poderá suspender permanentemente a conta de Donald Trump. Vale lembrar que, com a virada de ano e a posse iminente do próximo presidente eleito, Joe Biden, referida conta do Twitter deixou de ser vinculada à do “POTUS” (acrônimo em inglês de Presidente dos Estados Unidos), o que teria permitido que a plataforma tomasse medidas mais rígidas. A conta no Facebook também foi restringida por 24 horas, como caráter emergencial, para que ele perdesse a possibilidade de publicar nesse período. Posteriormente, nesta quinta-feira, 7 de janeiro, o Facebook anunciou o banimento da conta de Donald Trump pelo menos até que seu mandato chegue ao fim, num avanço sem precedentes das prerrogativas da rede social.
É evidente que a situação estava fora de controle e representava uma ameaça à democracia, de modo que de fato as declarações de Donald Trump nas redes pareciam representar um perigo grave. Mas o Twitter e o Facebook teriam poderes para rotular, restringir e até mesmo apagar conteúdo e a conta de um presidente? Existiriam limites ou situações específicas para isso?
Segundo o Twitter, sim, a empresa teria esses poderes de restrição, já que líderes mundiais não estariam acima de políticas de uso da plataforma[1]. Assim, representantes de órgãos públicos ou privados não teriam “passe livre” para publicar o que bem entendessem em suas contas. E o Twitter tem um ponto: sendo ele o responsável, criador e administrador da rede, a prerrogativa de determinar o que é permitido ou proibido em seu interior, no fim do dia, caberia ao próprio Twitter.
Ainda assim, é preciso ressaltar que nos últimos anos o Twitter vem sendo usado como meio oficial de comunicação de representantes estatais, e que estamos lidando com a situação de uma entidade privada que, segundo suas próprias regras e princípios, decidiu que tipo de conteúdo esses representantes poderão divulgar. É como se a plataforma atribuísse a si mesma poderes quase legislativos, determinando regras rígidas de uso, e quase judiciários, punindo os violadores. Nesse cenário, deve-se fazer alguma ponderação sobre essa atuação, entendendo as possíveis consequências dessa interferência.
O debate sobre desinformação e interferência em publicações não é novo. Desde as eleições norte-americanas de 2016, em que contas em mídias sociais foram usadas para publicar notícias falsas e incitar discursos de ódio contra determinados candidatos, discute-se o alcance e o potencial danoso desse tipo de conteúdo, bem como a regulação de redes sociais.
Existem muitas barreiras à solução do embate entre a permissividade da publicação de conteúdo nas redes (possibilitando a liberdade de expressão dos usuários) e seu uso indevido para promoção de “fake news” ou desinformação (impedindo o exercício pleno da liberdade de informação desses mesmos usuários). Nesse contexto, surge uma série de desafios sobre como classificar uma desinformação, como lidar com o número excessivo de publicações a serem analisadas diariamente, como mitigar riscos de uma eventual remoção indevida de conteúdo, entre outros.
Talvez essas dificuldades tenham atrasado o debate que, quatro anos depois, ainda não chegou a uma conclusão definitiva ou mais concreta. Existem projetos de lei, no Brasil e no exterior, buscando regular a desinformação, mas ainda sem conclusão. Enquanto isso, dia após dia somos bombardeados de informações questionáveis, pouco verificadas, geralmente compartilhadas por muitas pessoas em plataformas como WhatsApp, Facebook e Twitter. O que antes pareciam publicações inofensivas, hoje, mais do que nunca, mostram seu potencial lesivo: um boato sobre fraude em eleições, iniciado em redes sociais antes mesmo do início do processo eleitoral, hoje virou uma invasão ao Congresso de uma das democracias mais simbólicas do mundo.
Por conta da possível gravidade do tema e do vínculo estreito entre disseminação de desinformação e uso de redes sociais, nos últimos anos os próprios gestores das plataformas vêm sendo cobrados para que tomem medidas mais concretas de combate às fake news. Foi nesse contexto em que uma série de iniciativas privadas começaram a aparecer contra a disseminação de notícias falsas.
Preparando-se para as eleições de 2020, Twitter e Facebook lançaram atualizações de suas políticas: o Twitter expandiu sua política sobre integridade cívica, permitindo rotular ou remover publicações de usuários que contivessem informações falsas ou enganosas com “intenção de reduzir a confiança pública em eleições ou outros processos cívicos”; e o Facebook passou a adicionar rótulos de desinformação em publicações que questionassem o resultado das eleições ou discutissem, sem fundamentos, a legalidade dos métodos eleitorais nos EUA. Ambos, como se pode notar, já previam a contestação de Trump e seus apoiadores e buscaram estar mais preparados para lidar com a situação – e efetivamente estavam, como veremos a seguir.
Durante as eleições de 2020, publicações de Trump e de seus apoiadores receberam avisos de desinformação por conterem alegações infundadas de fraude eleitoral. Ainda que estudos indiquem certas falhas no processo de resposta do Twitter a tais publicações, como horas de demora para reconhecer a desinformação e a dificuldade de identificar os mesmos textos quando eles eram publicados em idiomas além do inglês (a Election Integrity Partnership fez uma série de estudos a respeito), entendemos que essa primeira medida foi ponto de equilíbrio relevante na redução do alcance de postagens suspeitas sem que isso levasse à proibição de publicação ou à remoção indevida de conteúdo: as publicações continuaram disponíveis (logo a liberdade de informação estava assegurada), enquanto a restrição ao compartilhamento e a vinculação de uma matéria expondo informações mais precisas sobre o assunto criavam certas barreiras à desinformação, limitando a liberdade de expressão.
Algo fica claro nas ações de 2020 do Twitter e do Facebook: a liberdade de expressão não é o bem mais valioso para nossa sociedade atualmente. Em um mundo de fake news, é importante garantir a informação mais precisa possível, ainda que, para isso, alguns tenham tolhidas em parte suas possibilidades de se expressar. A iniciativa bem-sucedida do momento foi garantir o “contraditório” ao conteúdo veiculado nas mídias sociais, mostrando ao usuário notícias e informações que podem apresentar o outro lado de determinada afirmação a que tiveram acesso. É uma ideia antiga, já defendida pelo juiz da Suprema Corte estadunidense Oliver Wendell Holmes[2], de que deve haver um “livre mercado de ideias” em que as pessoas tenham acesso ao maior número de informações possível, mas esse mercado, frente às fake news, tem nova face: aliado à garantia de plena informação, eventualmente um conteúdo ou outro podem ser restringidos.
O ano de 2021 talvez mostre a nocividade de uma medida determinada por ente privado que coloca em segundo plano a liberdade de expressão em prol da informação. O banimento do Facebook deixou isso ainda mais claro. Ainda que se entenda a urgência da medida, é preciso cautela, mantendo a esperança de que nossos órgãos públicos possam também propor medidas eficazes de combate às fake news, com legislação adequada e aparato apropriado de resposta. A iniciativa das plataformas é louvável, mas somente uma atuação conjunta com outros atores poderá evitar abusos e garantir que tanto a liberdade de expressão quanto a de informação sejam devidamente protegidas em nossa democracia.
Ainda não é possível antever quais serão os desdobramentos das medidas destes 06 e 07 de janeiro para a atuação das redes sociais, mas iniciamos 2021 com a percepção do caráter urgente de alguma atitude mais assertiva – seja ela das plataformas, seja de autoridades públicas. É preciso criar uma cultura de prevenção à propagação de desinformação em massa, ensinando a usuários as melhores práticas na Internet e alertando-os sobre os efeitos negativos dessa conduta para a sociedade e vida política – hoje mais claros do que nunca. A invasão que, lembremos, teve origem num boato amplamente difundido, hoje foi nos Estados Unidos. Mas ela pode acontecer aqui; o boato pode não ser percebido tão imediatamente por redes sociais nem enfrentado preventivamente pelas nossas autoridades. É essencial que lidemos no Brasil com essa possibilidade imediatamente, usando o caso americano de exemplo, preparando-nos para evitar situação semelhante e seus desdobramentos preocupantes em nossa ainda sensível democracia.
O episódio 48 do podcast Sem Precedentes faz uma análise sobre a atuação do Supremo Tribunal Federal (STF) em 2020 e mostra o que esperar em 2021. Ouça:
[1] https://blog.twitter.com/en_us/topics/company/2019/worldleaders2019.html. Acessado em 6 de janeiro de 2020.
[2] Abrams v. United States, 250 U.S. 616, 630-1, 1919