Marco Civil da Internet

Entidades e empresas veem PL anti-fake news como um risco à liberdade de expressão

Para elas, responsabilização de provedores incentivaria censura de conteúdos. PL está pautado no Senado no dia 2 de junho

fake news
Tela exibe senadores via videoconferência. Participa, 2º suplente de secretário da Mesa Diretora do Senado, senador Weverton (PDT-MA) / Crédito: Jefferson Rudy/Agência Senado

Dois projetos de lei, um apresentado na Câmara dos Deputados e outro no Senado Federal, têm o potencial de alterar o regime instituído pelo Marco Civil da Internet e tramitam a toque de caixa. Os parlamentares do Movimento Acredito apresentaram proposta chamada Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Sem debate público envolvido, sociedade civil, academia e empresas estão preocupadas com os riscos para a liberdade de expressão. 

O PL 2630/2020, do senador Alessandro Vieira (Cidadania-SE) está pautado para ser votado na próxima terça-feira (2/6). Já o PL 1429/2020 dos deputados Felipe Rigoni (PSB-ES) e Tábata Amaral (PDT-SP) estão em consulta pública até 8 de junho. No entanto, o projeto, que vem sendo chamado de “lei anti fake news” já tem também o carimbo do presidente da Câmara, Rodrigo Maia (DEM-RJ). 

Diariamente, parlamentares das duas Casas pedem a aprovação da legislação contra as fake news. Maia garantiu dar celeridade à matéria assim que chegar à Câmara. “Se eu já fui alvo (de fake news)? Eu já fui o principal alvo”, resumiu o presidente da Câmara. Deputados e senadores entendem que este será o meio para que eles próprios, também, deixem de ser alvo de ataques nas redes — de olho já nas eleições municipais, que podem se dar numa dinâmica diferente pela Covid-19. 

O senador Alessandro Vieira argumenta que o projeto é urgente por dois motivos: primeiro porque em meio a uma pandemia, desinformação mata; e em segundo lugar, o país se aproxima de novo ciclo eleitoral. Assim, essas redes de desinformação precisam ser desarticuladas com agilidade. Para ele, não é verdade que a tramitação do projeto não teve participação da sociedade. “A gente teve dezenas de reuniões com todas as plataformas, com a maioria das entidades da sociedade civil, várias sugestões foram acatadas”, afirma.

“Nós temos o entendimento de que as plataformas devem assumir a responsabilidade, não para censurar. Hoje, isso acontece de forma unilateral. A gente vem com a lei e corrige isso, para que seja transparente. O PL não tem remoção de conteúdo. E veda também as contas com conduta inautêntica”, diz.

Apesar de a intenção ser o combate à desinformação, pesquisadores, especialistas, e também as gigantes da internet temem que os PLs não consigam conter tal problema, pior, afetem a liberdade de expressão. “Não é incomum que, em momentos de excepcionalidade, o afã por dar respostas a problemas crie outros problemas”, diz artigo do InternetLab, assinada pelos pesquisadores e diretores do centro Francisco Brito Cruz e Mariana Valente.

O Facebook tem uma posição parecida. “Nos colocamos ao lado de organizações de defesa dos direitos na internet ao apoiar que projetos de lei sejam resultado de amplo debate público, para garantir que não representem ameaça à liberdade de expressão e para evitar que tragam insegurança jurídica ao setor”, disse a empresa, por meio de porta-voz.

O MCI foi discutido durante cinco anos até que foi promulgado em 2014. Ele sistematiza em lei 10 princípios desenvolvidos pelo Comitê Gestor da Internet brasileiro, entre eles a neutralidade da rede, a liberdade de expressão e a privacidade, dando importantes direitos aos cidadãos — online e offline. Pelo modelo vigente, as plataformas somente podem ser responsabilizadas por conteúdo produzido por terceiros se não removerem a postagem cuja ordem foi determinada por uma decisão judicial. O objetivo é não transferir para as empresas o papel de juiz. A lei buscou, assim, desincentivar a remoção “preventiva” de conteúdos. 

O Artigo 2º do PL afirma que o disposto na eventual lei deve considerar os princípios e garantias previstos no MCI (Lei 12.965/14), mas, na prática, segundo os especialistas ouvidos pelo JOTA, o texto modifica o regime de responsabilização dos provedores de aplicação, ou seja, as plataformas, acerca do conteúdo publicado por terceiros.

Transparência

Crítico do projeto, o diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio), Carlos Affonso Souza, aponta como ponto positivo a melhoria dos sistemas de transparência das empresas que atuam na internet. É disso que trata a seção 2 do PL. Pela proposta, os provedores de aplicação devem tornar público dados atualizados número de postagens e contas destacadas, removidas ou suspensas, a metodologia aplicada para a detecção da irregularidade.

O projeto impõe, ainda, a produção de relatórios semanais, comparação com métricas históricas de remoção de conteúdos e contas no Brasil e no mundo e que estes sejam divulgados em padrões tecnológicos abertos que permitam a comunicação, a acessibilidade e a interoperabilidade entre aplicações e bases de dados. Dados de engajamento, por exemplo, também deveriam constar nas divulgações periódicas.

Conceituações 

No entanto, conceitos genéricos demais e um modelo de responsabilização inadequado acabaram por acender a luz amarela às pessoas, entidades, pesquisadores e empresas que atuam na área. O artigo 4° lista 11 conceitos segundo os quais a Lei se aplicaria. Entram, aí, provedor de aplicação, conta inautêntica, disseminadores artificiais, conteúdo, verificadores de fatos independentes, serviço de mensageria privada. 

“A preocupação principal é que o projeto força as plataformas a fazer filtragens de conteúdo, remoção de conteúdo a partir de conceitos genéricos sob pena de sanções extremas, como suspensão de atividades, bloqueio de aplicativos”, resumiu o diretor do InternetLab Francisco Brito Cruz. 

De acordo com ele, cria-se, com a aprovação da lei, um sistema que “coloca uma espada sobre a cabeça das plataformas e o único jeito de escapar disso é controlar conteúdo a partir de conceitos genéricos”. O que significa que passariam a controlar por interpretações restritivas. Este papel, que não deveria ser transferido às empresas, a partir do momento que assumido por elas, seria tocado não com vistas à manutenção da liberdade de expressão, mas para evitar sanções e, assim, conteúdos sem ilegalidades seriam também removidos”, argumenta.

“Do jeito que está hoje, as plataformas não são responsáveis por análise de conteúdo. Você força a plataforma a fazer análise de desinformação para definir o que é uma conta inautêntica para não responsabilizá-la. Não só responsabilizar as plataformas, mas responsabilizá-las a partir de conceitos genéricos. Mesmo o de desinformação é genérico. É muito difícil conceituar desinformação”, pontua. 

A Coalizão Direitos na Rede — uma articulação de 38 organizações da sociedade civil, entre as quais entidades de pesquisa acadêmica, defesa do consumidor e de direitos humanos — divulgou nota em que afirma integrar parcela da sociedade preocupada com os riscos à democracia que a desinformação provoca. Portanto, diz reconhecer a importância da iniciativa legislativa em discussão, além das alterações promovidas da primeira versão à em debate no momento, mas mantém posição de que a proposta segue oferecendo “riscos significativos” ao exercício da liberdade de expressão na Internet. 

Segundo a Coalizão, o Brasil era, no início da década, um dos países com maior índice de remoção de conteúdos pelas plataformas. “O Marco Civil da Internet buscou enfrentar este problema e, de forma competente, trouxe garantias e dispositivos para tornar efetivo, também no ambiente digital, o artigo 5º, IX, da Constituição Federal, que preconiza a liberdade de expressão intelectual, artística, científica e de comunicação, independentemente de censura ou licença.” 

Segundo defende a organização, uma alteração em um marco amplamente debatido e reconhecido deveria ser novamente discutida de forma abrangente. A própria pandemia do novo coronavírus, que instituiu um novo modelo de votações no Congresso, sem a passagem das pautas pelas comissões ou sem a possibilidade de chamamento de audiências públicas é um dificultador que deveria ser considerado para que se chegasse a um resultado mais satisfatório. 

A definição de conta inautêntica traz dúvidas também em relação ao tratamento que o projeto dá para contas verificadas e que veiculam conteúdos desinformativos. “São cotidianos os exemplos de autoridades brasileiras que, no uso de seus perfis oficiais nas redes sociais, publicam ou compartilham conteúdos posteriormente classificados como falsos pelas agências de checagem que os PLs incentivam. Essas contas seriam classificadas como ‘inautênticas’ de acordo com o projeto?”, questiona a Coalizão. 

A definição de “disseminadores artificiais” como “qualquer programa de computador ou tecnologia empregada para simular, substituir ou facilitar atividades de humanos na disseminação de conteúdo em aplicações de internet” também preocupa nossas organizações no sentido de levar ao banimento de bots usados para fins não relacionados à prática da desinformação.

Vieira não concorda com as críticas de que o projeto limitaria a liberdade de expressão. “Hoje, uma plataforma exclui uma postagem do presidente da República sem a possibilidade de uma resposta. Agora, prevemos o contraditório, um processo mais transparente, com possibilidade de recurso”, defende.

Eficácia

Para além disso, a conclusão dos pesquisadores e do setor é de que o texto atual da proposta dificilmente se aproximará dos objetivos almejados. “O combate às notícias falsas passa por quatro competências: jurídica, econômica, social e tecnológica. Esse PL está olhando especificamente para o componente jurídico, e que precisa de muitos melhoramentos”, critica o diretor do ITS Carlos Affonso.

As redes de desinformação custam caro, precisam de financiamento. A abordagem inicial para combater fake news é o ‘follow the money’, ou seja, quem está financiando as fazendas de robôs? Quem paga a conta das empresas de disparos em massa de mensagens? E essa lei não desarma nada disso”.

Da mesma forma, entende o diretor do InternetLab. “Esse problema de produção, distribuição e consumo que se dá a partir dos protocolos jornalísticos não é só um problema que se resolve no meio, pelos intermediários. A produção é baratíssima. Fake news não é um problema só jurídico e não vai ser resolvido aumentando a responsabilidade aqui e ali”, diz Francisco Cruz.

Outro ponto levantado por ele é que uma lei não vai resolver a polarização política no Brasil. “O problema é focar a responsabilização nas plataformas, esquecendo que qualquer arranjo mais inteligente, mais equilibrado deve distribuir responsabilidades. Qual a responsabilidade que deve ter o agente público que a partir da sua função pública faz uma conta falsa e apócrifa? O que dá a senha a um terceiro que não é da administração pública? Todo o foco vai pras plataformas, como se tivessem solução mágica.” 

Affonso diz, ainda, que o PL tem pouco estímulo à educação digital e que deixa a desejar na parte tecnológica. Isso porque é um projeto que tem os olhos voltados ao passado. “Esse é um PL que olha para 2019. É quase que um rescaldo do que a gente viu em 2018 e 2019. Ele procura dar soluções que talvez fizessem sentido naquele momento, não olha para frente. O exemplo mais gritante é o artigo 13, que fala em mensagerias privadas. Ele olha para o WhatsApp para determinar o funcionamento que todos deveriam incorporar”, explica.

No trecho citado, o PL estabelece que as empresas devem desenvolver políticas de uso que limitem o número de encaminhamentos de uma mesma mensagem a no máximo cinco usuários ou grupos, bem como o número máximo de integrantes de cada grupo para o máximo de 256 de usuários, ou seja, o mesmo limite do WhatsApp.  

“É muito ruim para a inovação. É, na melhor das hipóteses, linguagem de decreto, determinar quantos integrantes que pode ter num grupo. Ele escolhe determinadas tecnologias e determinadas plataformas, olha para como eram e cristaliza o modo de funcionamento para o futuro. Não permite, então, que surjam soluções inovadoras para novos desafios. Por isso, o texto não é tecnologicamente neutro”, ressalta Affonso. 

Organismos internacionais

A articulação de entidades aponta conflito também com diretrizes internacionais de proteção à liberdade de expressão. Para os organismos multilaterais, os sistemas de filtragem de conteúdos impostos por governos ou por provedores de serviços comerciais constituem uma forma de censura prévia. No ano passado, em nova declaração conjunta, os relatores colocaram o “controle privado” como um dos três principais desafios para a liberdade de expressão na atual década.

Em 2011, em declaração conjunta sobre a internet, a Relatoria Especial da ONU sobre a Liberdade de Opinião e Expressão, e da Organização dos Estados Americanos (OEA), a Organização para a Segurança e a Cooperação na Europa para a Liberdade dos Meios de Comunicação, e a Relatoria Especial da Comissão Africana de Direitos Humanos e dos Povos para Liberdade de Expressão e Acesso à Informação afirmaram que não se deve exigir que os intermediários controlem os conteúdos gerados por usuários da Internet, tampouco estarem sujeitos a normas extrajudiciais sobre remoção de conteúdos que não ofereçam suficiente proteção à liberdade de expressão, como o mecanismo de “notificação e retirada”.