Liberdade de Expressão

Redes sociais

Modelo de remoção de conteúdo é debatido diante de posts enganosos sobre Covid-19

Depois da pandemia, plataformas passaram a revisar os termos de uso. Há discussão sobre a eficácia das remoções

Crédito: Pixabay

A remoção de conteúdo publicado na internet pode ser feita por meio de três vias no Brasil: judicialmente, com pedidos feitos às plataformas de redes sociais ou espontaneamente pela plataforma. Em meio à pandemia do coronavírus, o debate a respeito dos limites e garantias sobre o tema ganha contornos um pouco diferentes. O viés da censura tem de ser ponderado com o risco de manter no ar conteúdos falsos ou conteúdos que exponham a sociedade a riscos de saúde pública e segurança. 

Neste sentido, tanto especialistas quanto empresas ouvidos pelo JOTA apontam para uma atuação convergente entre as duas frentes, das políticas internas de moderação de conteúdo e do que estabelece o Marco Civil da Internet (MCI). De acordo com os estudiosos do tema, as três formas de  remoção são compatíveis com a legislação em questão. Eles alertam, porém, que falta transparência das empresas quanto às regras de uso para que um conteúdo seja removido. Além disso, no contexto da Covid-19, evidenciar, com um aviso, que uma publicação é falsa ou contém erros pode ser mais eficiente que apenas removê-la.

O artigo 19 do MCI, a Lei 12.965/2014, é o dispositivo que determina que é preciso uma ordem judicial prévia e específica de exclusão de conteúdo para a responsabilização civil de provedor de internet, websites e gestores de aplicativos de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros. O trecho está em discussão no Supremo Tribunal Federal (STF), que faria, inclusive, uma audiência pública para debater o tema — cancelada em decorrência da pandemia. 

Com a norma em vigor, não basta uma notificação do usuário para que o conteúdo seja removido. É preciso que um juiz determine a retirada e aponte exatamente o endereço eletrônico, a URL, que a decisão atinge. O dispositivo tem o objetivo de assegurar que, na apreciação de um pedido de remoção, observe-se a garantia de liberdade de expressão, vedada a censura. 

Nesta terça-feira (28/4), o Facebook divulgou nota em que reúne as medidas que tem tomado “para que as pessoas tenham acesso a informações precisas” durante a pandemia. Logo no primeiro item, a gigante da internet cita as formas por meio das quais tem combatido a desinformação sobre a Covid-19 nos aplicativos, como a adição de banners nas plataformas, como no próprio Facebook e no Instagram, que levam ao site oficial do Ministério da Saúde. 

Para além disso, o Facebook afirma que está “removendo falsas promessas de cura ou teorias da conspiração sobre o vírus que poderiam causar dano real às pessoas” e banido, temporariamente, “anúncios e listagem de produtos, como no Marketplace, para venda de máscaras de proteção respiratória”. A política de remoção de fake news da empresa existe desde 2018, mas o entendimento dela foi agora aplicado também no combate à Covid-19. 

No caso do Google, não há mudanças significativas. As políticas pré-existentes são aplicadas ao conteúdo sobre a doença, como a Política de Conteúdo Perigoso ou Nocivo, presente, por exemplo, na política de comunidade do YouTube: “O YouTube não permite conteúdo que incentive atividades ilegais ou perigosas que possam causar danos físicos graves ou de morte”. 

Um dos itens já listados define que a rede não autoriza “promover curas ou remédios perigosos: conteúdo que afirma que tratamentos ou substâncias nocivas podem ter benefícios à saúde”, o que é facilmente aplicado a publicações relacionadas à pandemia, como sobre meios de tratamento não comprovados à Covid-19, ou mesmo que a doença não existe de fato. Conteúdos do tipo podem sofrer denúncias de usuários e serem removidos. 

Em menos de um mês, o Twitter removeu mais de mil posts com conteúdo enganoso e potencialmente prejudicial relacionado à Covid-19. O levantamento passou a ser feito no dia 18 de março, depois que a rede social estabeleceu uma série de critérios para analisar com maior rigidez tweets que tragam possíveis desinformações sobre o coronavírus. No caso de conteúdos publicados por líderes mundiais, está prevista entre as sanções possíveis a aplicação do aviso de interesse público aos Tweets quando há violação das políticas.

Nossa prioridade é garantir a segurança das pessoas e proteger a conversa pública. Por isso, expandimos nossas regras para abranger conteúdos que forem eventualmente contra informações de saúde pública orientadas por fontes oficiais e possam colocar as pessoas em maior risco de transmitir Covid-19. Sob essa nova orientação, passamos a atuar sobre Tweets que incluam a negação das recomendações de autoridades de saúde; ou descrição de supostas curas para Covid-19, por exemplo”, diz o Twitter por meio de nota. 

Nestes casos, estão incluídas postagens contra o isolamento social, ou que divulguem supostas curas ineficazes ou prejudiciais, que se passem por informações oficiais ou autoridades, que levem pessoas ao pânico ou a atividades que possam acarretar ação judicial. O Twitter afirma que a revisão é diária e as atualizações são encontradas no blog do Twitter Brasil.

Fabrício Polido, professor da Faculdade de Direito da Universidade Federal de Minas Gerais (UFMG) e sócio de Inovação e Tecnologia do L.O Baptista Advogados, afirma que as plataformas podem retirar conteúdo de acordo com as regras construídas por elas próprias e é importante que se faça esse debate dando direito ao contraditório. “O sistema das plataformas caminham a meu ver a uma convergência para que o usuário possa contestar a remoção que ele não considerou adequada de acordo com as regras da plataforma”.

Para ele, neste momento é possível observar que o art 19 é “absolutamente compatível a possibilidade com que você tenha decisão judicial como também a moderação pelas empresas de acordo com as regras da plataforma desde que essas regras não conflitem com o MCI”. Ou seja, é preciso realmente ponderar se promover notícias deliberadamente manipuladas ou forjadas que atentam contra a saúde pública deveriam ser acolhidas pela liberdade de expressão. 

“Essa indústria deliberada de informações, uma ‘infodemia’, destrói as bases do uso da internet como conhecemos. Se o conteúdo é tóxico, é nocivo, se não corresponde a essa expectativa de participação democrática, a rede é utilizada para a finalidade de causar insegurança, polarização, os danos offline. É preciso que a internet não seja espaço de repulsão, mas de atração”, avalia. 

O debate sobre censura, no entanto, não pode ser esquecido. Polido reforça que, em situações que envolvam, por exemplo, pedido de usuário ao Twitter que se sente ofendido por um comentário de outro usuário, o caminho é a remoção judicial. Nesse caso, o conflito entre comentário e a alegada ofensa não poderia ser resolvido simplesmente pela plataforma: o usuário que emite opinião está protegido pela liberdade de expressão até que um ator neutro, o Judiciário, faça a análise do que representou o discurso.

Diretora-executiva da Coding Rights, Joana Varon ressalta que o art. 19 foi escrito no intuito de garantir um equilíbrio à liberdade de expressão e não atribuir a empresas o papel de juiz, para decidir o que fica online ou não. Mas Varon aponta que faltou incluir um dever de transparência para essas mesmas plataformas no que diz respeito às remoções independentes. Casos de crimes são previstos como exceções no MCI, para que seja dada mais agilidade à atuação. Mas há ainda os casos que não condizem com os termos de uso das plataformas, que agora incluem também conteúdos tidos por falaciosos sobre a Covid-19 — e cuja retirada do ar talvez não seja a melhor alternativa. 

“No momento da concepção do MCI foi uma tentativa boa de balanço, e ainda é, mas temos de levar em conta que mesmo que as plataformas não sejam responsáveis pela maioria dos conteúdos postados por terceiros, elas fazem remoção de conteúdos. Então, o que faltou foi um dever de transparência de quando elas fizerem remoção de conteúdo com base nas suas práticas de comunidade. A gente tem dados sobre remoção de conteúdos judicialmente, mas não temos das feitas pelas plataformas com base nos termos de uso”, diz Varon. 

Num contexto de normalidade, sem que o mundo esteja passando por uma pandemia, este elemento é observado mais facilmente. Mas, neste período, a Covid-19 adiciona componentes ao debate, sem que se possa deixar de lado o quadro que se tinha anteriormente — a diretora da Coding Rights lembra que, à época da construção do MCI, não se falava de desinformação como hoje, quando se tem, inclusive, atores políticos que a usam como estratégia. 

“Essa remoção muitas vezes é prejudicial à liberdade de expressão. A gente tem vários exemplos de organizações feministas que são retiradas, seja porque apropriam conteúdos, como com o uso da palavra ‘sapatão’, por outro lado é comum que posts de discurso de ódio contra mesmo mulheres mais vocais nas redes sejam mantidos. Então qual é esse balanço que as próprias plataformas estão impondo? Elas mesmas têm decidido o que vale e o que não vale e a gente não tem transparência”, aponta Joana Varon. 

A respeito de fake news e das informações falsas ou manipuladas sobre a pandemia, especificamente, ela explica que há estudos que mostram que apenas a checagem de fatos não é suficiente. Como os posts são feitos com a lógica de chamar a atenção, do clique, mais gente que vê conteúdo falso do que a correção posterior. Nesse sentido, existe um debate, também, de que a remoção de conteúdo talvez não seja a melhor forma. Poderia-se, ao contrário, incluir um aviso: “esse conteúdo foi verificado e não condiz com estudos, ou informações verificadas”.