As redes sociais poderão perder 47 milhões de reais em receitas por ano e mais 23 bilhões de reais em valor de mercado no Brasil, caso o Supremo Tribunal Federal (STF) decida mudar o entendimento do marco civil da internet e responsabilizar as plataformas pela fiscalização dos conteúdos postados pelos usuários. Caso a mudança ocorra, os provedores deverão pagar indenização se não retirarem discursos de ódio e fake news do ar, mesmo sem qualquer decisão judicial.
A estimativa dos efeitos econômicos da responsabilização das plataformas digitais vem de um estudo realizado pelo Centro de Regulação e Democracia do Insper. A mesma pesquisa indica que o risco de haver mais censura a conteúdos legais com a implementação da mudança é maior que o provável êxito em conseguir retirar um maior volume de postagens nocivas do ar.
O assunto, bastante relevante no Brasil neste momento em que o discurso de ódio e as notícias falsas se espalham nas redes, deverá voltar à pauta do STF em breve, após as eleições. Os ministros vão então decidir se mantêm ou não a moderação do conteúdo como é hoje.
O artigo 19 do marco civil da internet exige ordem judicial prévia de exclusão de conteúdo para que o provedor seja responsabilizado pelos danos decorrentes de atos ilícitos praticados pelos usuários. Isso significa que as redes sociais só respondem por esses danos caso desobedeçam à justiça para manter os conteúdos no ar.
Impor regras mais duras para que as próprias redes sociais moderem o conteúdo publicado por terceiros, no entanto, pode retirar a previsibilidade das empresas sobre quais tipos de manifestações gerariam condenações, além de fazê-las retirar um volume maior de conteúdos para se protegerem das punições.
“A regra do marco civil garante essa previsibilidade para a empresa, porque ela só poderá ser condenada se ela houver uma ordem judicial”, compara o pesquisador Ivar Hartmann, professor associado do Insper. Para ele, a mudança de entendimento pode fazer as plataformas retirarem todo o conteúdo que for alvo de reclamação para evitar condenações diante de um cenário de insegurança sobre quais conteúdos serão considerados de fato nocivos.
O estudo avalia o comportamento dos usuários das redes sociais antes e depois de 2014, quando o marco civil incluiu essa previsibilidade sobre os conteúdos ilegais. “Presumimos que, se isso acontecer, o comportamento será o de antes e o efeito é este: 47 milhões de perdas de receita por ano e 23 bilhões de perda no valor de mercado”, afirma o pesquisador. O cálculo usa dados de faturamento de redes sociais como Facebook, Instagram e Youtube. Não abraça aplicativos de mensagens como Whatsapp e Telegram.
A retirada desenfreada dos conteúdos pode desestimular o próprio usuário a usar as plataformas, cuja receita depende também da publicidade disseminada nelas. Para Ivar Hartmann, a perda econômica não vale a pena porque a pesquisa não está olhando para os conteúdos ilegais que de fato devem ser removidos, como por exemplo os conteúdos de fraudes nas urnas eletrônicas sem provas.
“Estamos olhando para os falsos positivos, para as manifestações que não são ilegais e mesmo assim serão removidas das redes sociais para que elas possam se proteger”, explica.
Ivar Hartmann salienta que, depois de muitos anos de pesquisas realizadas na área, já se sabe que não há um modelo de moderação possível para dizer com 100% de certeza qual conteúdo é legal ou ilegal. “As empresas certamente não conseguem fazer isso para milhões e milhões de postagens diariamente”, reconhece.
Mesmo a melhor opção, indica, sempre vai conter uma taxa de erro. “Essa taxa de erro é o quanto de liberdade de expressão legítima está sendo censurada. A questão que nós temos que decidir é: essa taxa de erro vai ser maior ou menor? Ela vai existir, é inevitável”, argumenta.
O estudo sugere, então, que o volume dessa censura pode ser maior com a mudança da regra jurídica brasileira sobre a responsabilidade das plataformas digitais.
O caminho, defende, é criar uma normativa sobre procedimentos: se remove o post, quando o provedor deve avisar ao autor, quais as condições e prazo para o autor pedir revisão, quem deve revisar e a determinação de que essa revisão não deve ser automatizada.
“As plataformas estão fazendo o melhor que conseguem. Inclusive, quando não removem discurso de ódio, perdem anunciante”, diz o pesquisador, defendendo a importância de dar previsibilidade jurídica para as redes sociais.