Opinião & Análise

Plataformas

Procedimento de moderação do Projeto de Lei nº 2630/2020: objetividade e controle

Mostra-se necessário preservar as garantias da liberdade de expressão e a feição democrática do debate

Fachada do Congresso Nacional. Foto: Pedro França/Agência Senado

1. Introdução

No último 30 de junho, o Senado Federal aprovou o PLS nº 2.630/2020, que Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, do que resulta a remessa do texto à Câmara dos Deputados, etapa subsequente do processo legislativo.

A proposta visa a coibir o uso de contas inautênticas e automatizadas – quando não identificadas como tal – e reduzir o tráfego de desinformação. Para tanto, estabelece um conjunto de regras e regulamenta métodos para que os provedores de aplicação atuem na prevenção e no embotamento dessas atividades nocivas.

Engendrou-se um procedimento de moderação, a cargo das plataformas de rede social, delineado no artigo 12.  O texto revela os objetivos concorrentes de restringir e coibir a prática de ilicitudes – infrações à lei e aos termos de uso, previamente ajustadas – e assegurar o acesso à informação e a liberdade de expressão dos usuários.

Entretanto, o mecanismo, tal qual elaborado, confere aos provedores excessiva discricionaridade para a exclusão de conteúdo, sobretudo no que concerne às hipóteses em que se dispensa a notificação do emissor, ao passo que não criou qualquer espécie de controle sobre o procedimento.

2. Procedimento de moderação – discricionaridade e irresponsabilidade

Consoante acima destacado, o Projeto de Lei nº 2.630/2020 condiciona a exclusão de conteúdo postado nas interfaces das redes sociais e o cancelamento de contas, em regra, à abertura de um procedimento prévio, pautado por uma notificação prévia, em que se fundamente as razões de fato e de direito pelas quais se promove a medida, se explique o processo de análise e a sanção, bem como se franqueie uma oportunidade de contestação e recurso, na hipótese de serem a conta ou postagem indisponibilizadas.

O preceito constitui norma de intermediação, que concretiza a incidência de direitos fundamentais (liberdade de expressão, direito à informação, contraditório e ampla defesa) na esfera privada. Em que pese o Pretório Excelso venha decidindo reiteradamente pela aplicabilidade imediata dos direitos fundamentais nas relações particulares – v.g. ADI nº 4.815 e AgrR no ARE nº 1.008.625, a medida se afigura salutar, ao rechaçar discussões estéreis e delinear, com maior clareza, o procedimento.

Sem embargo, o esboço legal dispõe como remédio para quaisquer irregularidades o banimento da conta ou conteúdo, malgrado haja medidas menos invasivas em que poderiam solucionar a questão de maneira menos traumática e mais consentânea com os direitos postos em confronto.

Posto que esse fosse o caso, não se adotou qualquer parâmetro para definir o que legitimaria essa atuação das plataformas digitais, ressalvada a alusão à notícia encaminhada por terceiro[1], a qual sequer é fundamental para a ação. Ademais, não há gradação da lesão, de modo a estabelecer uma relação de proporcionalidade entre a lesão e a medida correspondente.

Não há dúvida de que alguns casos demandam ação imediata dos provedores, ante o conteúdo nocivo das publicações que possam de imediato produzir dano à rede, aos usuários e/ou a todo corpo social. Em tais casos, os riscos inerentes ao próprio acesso da postagem não se compatibilizariam com as delongas do procedimento prévio.

Sob esse enfoque, elencaram-se algumas situações em que a notificação prévia seria prescindível, isto é, preservar-se-ia o procedimento, porém poderia o tópico ser afastado em caráter sumário. São elas: a)  risco de dano imediato de difícil reparação; b) risco para a segurança da informação ou do usuário; c) violação a direitos de crianças e adolescentes; d) racismo e; e) grave comprometimento da usabilidade, integridade ou estabilidade da aplicação.

Em última análise, no inciso I do art. 12 (item a, supra), concede-se às plataformas verdadeiro poder geral de cautela, mercê do uso da expressão “dano imediato de difícil reparação” impregnada de significado amplo e subjetivo. Estariam tais entidades capacitadas e legitimadas a empreender o controle do conteúdo e contas a serem imediatamente expurgados, sem anterior análise e posterior controle.

Vale, ainda, salientar que averiguado prejuízo decorrente da caracterização equivocada de conteúdos como violadores dos padrões de uso de aplicações ou legais, caberá ao provedor de redes sociais, apenas, repará-lo, no âmbito e nos limites técnicos do serviço. É dizer, mitigar-se-ia a própria responsabilidade civil em favor de uma espécie de reparação subjacente ao serviço e circunscrita pelos limites gizados pelo próprio infrator.

3. Objetivação e progressão das medidas concernentes à moderação

A fim de delimitar esse amplo e desregrado campo de ação, o primeiro passo seria instituir respostas variadas e que se compatibilizem com o abuso que se visa a sanar.

Como cediço, há casos em que não se visualiza na matéria difundida uma grave infração legal e que, tampouco, ameaça o bom funcionamento das aplicações. Nessa conjuntura, melhor que se buscasse fomentar o debate de ideias, por meio do alerta para posições divergentes e que podem ser úteis para a formação da convicção do usuário.

Em suma, deparando-se com conteúdo controverso e/ou impreciso, que possa induzir em erro o destinatário, o provedor de aplicação deveria publicar aviso sobre essa circunstância e indicar serviços de checagem que possam auxiliar o usuário a melhor se informar sobre o assunto.

Ao mesmo tempo em que se afasta dos provedores a obrigação de excluir conteúdo que pode ser considerado controverso e/ou impreciso, bem como a prerrogativa de decidir pelo usuário. Reforça-se o arcabouço de informações posto à disposição dos cidadãos, para subsidiar a análise da controvérsia e a extração de suas próprias conclusões.

Para as situações em que se constate transgressão incontornável a comando legal ou risco à aplicação ou a terceiros, que implique a inutilidade do método acima sugerido – isto é, há mais que simples imprecisão do conteúdo – tornam-se pertinentes reações mais enérgicas.

Sendo o caso de excluir a publicação ou restringir o acesso de conta, surge o procedimento prévio de defesa, do qual somente se poderá eximir quando for essencial uma pronta intervenção. Porém, conforme já explicitado, o Projeto de Lei nº 2.630/2020 concede aos provedores excesso de poder para decidirem, segundo seus próprios critérios, qual conteúdo pode ser retirado imediatamente, sem qualquer aviso ao usuário.

A esse propósito, forçoso objetivar as hipóteses de ingerência, à míngua do procedimento prévio, como forma de controle social e estatal dessa atuação.

Nesse proceder, imprescindível pensar em cláusulas capazes de reunir as condutas cuja gravidade reclame atuação célere dos provedores e, ao mesmo tempo, revelem teor claro e demarcado. Desse modo, reivindica-se para a própria sociedade a escolha sobre quais assuntos não merecem difusão pelas redes sociais, ao invés de simplesmente delegar às plataformas essa definição.

Sob esse prisma, não há bens jurídicos mais caros a um grupo social, do que aqueles protegidos pelo direito penal.

Parece adequado, todavia, que se exclua desse conjunto de normas os crimes de ação privada, ante (i) o caráter preponderante que se confere ao interesse da vítima em ver essa espécie de delito investigado e punido, que se comunica com o sancionamento das mesmas condutas em ambiente virtual; (ii) parcela relevante desses crimes se classificam como de opinião, para os quais o procedimento de defesa prévia se mostra assaz percuciente.

Além dos crimes de ação penal pública incondicionada, parece importante que sejam imediatamente solucionadas situações de risco à vida, de violação de direitos de crianças e adolescentes e à segurança e integridade do sistema.

4. Ambiente de liberdade da rede e dupla função de proteção

Poder-se-ia questionar a concepção de um critério de exclusão de conteúdo baseado em tipos penais, a pretexto de que provedores de aplicação não são versados em direito penal ou que o ambiente virtual não deveria ser “policiado”, o que criaria um ambiente negativo para a criatividade e a ampla troca de ideias. Não é isso que se defende, contudo.

Note-se que a proposta não obriga as redes sociais a vasculhar as postagens de seus usuários em busca de crimes, tampouco que, uma vez encontrado um fato definido como delito, se proceda ao instantâneo bloqueio do acesso.

Ao contrário, se o provedor se defronta com uma potencial lesão a direito de terceiro, poderá excluí-la, se demonstrar que a conduta se amolda a algum tipo penal sujeito a ação penal pública incondicionada.

Como consequência, se a entidade inquina a conduta alheia de criminosa, incumbe-lhe representar ao Ministério Público ou à Polícia Judiciária, para que analisem o fato sob a perspectiva do direito penal e promovam a persecução, se for o caso[2].

Surge portanto, uma dupla função de proteção. Em um primeiro plano, a cláusula constrangeria a plataforma a não afastar, sem procedimento de defesa, matéria de menor repercussão, mercê de suas ações passarem a se sujeitar ao controle dos órgãos estatais. Não se olvide que o Ministério Público não é apenas o órgão responsável pela persecução penal em juízo, senão o encarregado da defesa da ordem jurídica, do regime democrático e dos interesses sociais e individuais indisponíveis.

De outra banda, assegura-se maior proteção à sociedade, dado que crimes graves veiculados pela internet chegariam com maior presteza e detalhamento aos órgãos pertinentes, a possibilitar uma resposta mais ágil e profícua. Aliás, esse um dos alicerces da lei que o projeto em destaque pretende edificar.

5. Responsabilidade civil por moderação inapropriada

Constitui regra basilar do direito civil o dever geral de não causar prejuízo a outrem (neminem laedere), assim como o é, a consequente responsabilização do ofensor, como instrumento de amenizar os danos causados.

A regra geral do art. 927 do Código Civil se subsumiria insofismavelmente à ação dos provedores de aplicação que, com má-fé ou de forma açodada e não refletida, causarem prejuízos (dano emergente e lucro cessante) a usuários, ao subtrair o acesso às suas contas ou afastar conteúdo legítimo.

Não se pode, destarte, conferir ao parágrafo 4.º do artigo 12 do Projeto de Lei nº 2.630/2020, a exegese de que, para afastar um dever civil de reparar, basta à plataforma reparar tecnicamente a questão (se possível e dentro de uma escala técnica por ele mesmo elaborada), devolvendo a conta ao status quo ante.

Como se sabe, hoje diversos são os empreendimentos que travam suas negociações pelas redes sociais, em alguns casos de forma exclusiva, os quais teriam sua saúde financeira e reputacional feridas de morte por um banimento inconsequente.

Nesse quadro, melhor seria que a própria norma vindoura não imprimisse um caráter dúbio ao referido dispositivo, assegurando a responsabilidade civil decorrente da caracterização equivocada de conteúdos como violadores dos padrões de uso de aplicações ou da legislação.

6. Conclusões

Por óbvio, não se pode prescindir da colaboração das redes sociais para a detecção da desinformação e outros crimes, sobretudo quando desenvolvidos por meio de contas inautênticas e automatizadas – quando não identificadas como tal. Isso não significa que a atuação de tais entidades não deva estar balizadas pelos princípios e normas inerentes ao sistema jurídico brasileiro.

Não se pode perder de vista, ainda, que o mercado das aplicações da rede mundial de computadores não é fechado e pode vir a ser dominado por novas empresas, fundadas sob valores essencialmente diferentes ou que busquem atingir interesses por nós repelidos.

Em qualquer cenário, exsurge necessário preservar as garantias da liberdade de expressão e a feição democrática do debate, mediante a correlação de forças entre provedores, estado e sociedade, com um objetivo primordial de cooperação, mas, também, de fiscalização e controle quando necessário.

 


[1] Denúncia, nos termos do projeto.

[2] Quando identificada pelo provedor a prática de crime, este deverá preservar os dados, nos termos do artigo 15 do MCI, e comunicar às autoridades competentes. Ao fazê-lo, não deverá dar ciência do ato a qualquer pessoa, inclusive ao usuário, como forma de garantir a eficácia das investigações, como exemplo do compliance digital (Art. 10, inc. V, da Lei nº 9.613/98 – Proibição de Tipping Off – Gafi).


Cadastre-se e leia 10 matérias/mês de graça e receba conteúdo especializado

Cadastro Gratuito