Liberdade de Expressão

Transparência e devido processo

PL na Câmara busca aliar moderação de conteúdo à liberdade de expressão

Em vez de proibir remoção de conteúdo pelas plataformas, proposta quer estabelecer regras para evitar conteúdos tóxicos

PL moderação de conteúdo
Câmara debate PL das fake news | Crédito: Maryanna Oliveira/Câmara dos Deputados

No campo em disputa entre redes sociais, desinformação e liberdade de expressão, a moderação de conteúdo pelas empresas provedoras está no centro do debate. A remoção de conteúdo chegou a ser proibida em medida provisória, que acabou devolvida pelo Senado ao governo em setembro. Sem perspectiva de proibição, está em discussão na Câmara dos Deputados uma proposta com regras de transparência.

Nesta semana, a Casa JOTA, com patrocínio do Google, está discutindo conflitos atuais para liberdade de expressão em uma série de eventos. Nesta quarta-feira (10/11), foi a vez de debater “Moderação de conteúdo por plataformas: a discussão no Legislativo“. Na quinta-feira, a partir das 10h, o enfoque será na discussão jurídica sobre moderação de conteúdo.

Para receber informações e conteúdos exclusivos sobre os eventos da Casa JOTA, faça o cadastro.

O Projeto de Lei (PL) 2630/2020, conhecido como PL das Fake News, propõe, entre outras temáticas, regras para a moderação de conteúdo feita pelas plataformas. Muito do que é estabelecido já é prática para algumas delas, conforme apontou o deputado federal Felipe Rigoni (PSB-ES), coautor do projeto. “Embora sejam empresas privadas, as redes sociais têm característica de praça pública, democratizando o direito a expressar opinião para milhões de pessoas”, afirmou.

“Não há problema em moderar conteúdo, mas precisa haver transparência. Pedimos a categorização dos tipos de moderação, se foi feito por via judicial, inteligência artificial ou termos de uso, para que os usuários a entendam melhor”, explicou sobre o projeto. “A moderação pode ser uma afronta à liberdade de expressão, já que muitas vezes ela erra. Por isso o usuário tem que ser notificado e ter um espaço para contestação com possibilidade de reparação. Esse seria o devido processo”. Outra frente do projeto é combater ações coordenadas para disparo de fake news.

De acordo com o deputado, a expectativa é que, nas próximas semanas, esquente a discussão sobre o projeto. Ele está com um Grupo de Trabalho, que inclusive deve se reunir nesta quarta-feira (10/11), antes de ir para votação em plenário. Antes disso, seria necessário consenso entre líderes na Câmara. O texto a ser levado também não está pronto. “Temos muitos itens no capítulo sobre transparência que poderiam ser reduzidos e devem ser alterados trechos que endereçam LGPD, por exemplo”, relatou.

Entre as disputas no equilíbrio entre moderação e liberdade de expressão, está o momento estabelecido para ouvir o autor da postagem, se previamente ou posteriormente à retirada de publicações. O PL estabelece a possibilidade de remoção imediata. “É importante que a moderação, além da necessidade de transparência e devido processo, seja ágil e possa levar à remoção do conteúdo ofensivo, sob pena de não conseguir manter as plataformas adequadas para todos os usuários”, avaliou Eduardo Mendonça, advogado sócio do escritório BFBM, no Rio de Janeiro.

“Se for exigido devido processo prévio, com o conteúdo mantido enquanto isso, as redes ficarão permanentemente inundadas de conteúdo tóxico”, completou Mendonça. Na perspectiva dele, ao contrário de cercear a expressão de opiniões, a moderação dentro de parâmetros de transparência, funcionaria para proteger o debate de ideias: “Ela garante que a liberdade de expressão se realize para todos os usuários”. A lei brasileira já limita o exercício da liberdade de expressão se ela funciona para propagar discurso de ódio, por exemplo.

A eficácia da legislação é desafiada pela adesão das plataformas às regras. O PL fixa a exigência de haver representação legal das provedoras, o que, atualmente, nem sempre acontece – redes do grupo do Facebook, como Instagram e WhatsApp, têm representantes, enquanto Telegram, não, por exemplo.

“Como ter eficácia das normas se plataformas estrangeiras ignorarem a legislação brasileira? Elas deveriam ser bloqueadas? Esse cenário é delicado, por isso precisamos evitar que casos individuais levem a medidas drásticas”, disse Marcel Leonardi, advogado e professor da FGV Direito São Paulo. “Ao mesmo tempo, o ideal é permitir que as empresas tenham regras próprias, respeitando escopos da liberdade de expressão.”