marco civil da internet

O artigo 19 do MCI e a nova regulação das plataformas digitais

Regular com base em conceitos estanques do que se entende por conteúdos a serem removidos não é uma estratégia eficaz

28/03/2023|05:00
Atualizado em 02/05/2023 às 08:50
marco civil da internet
Crédito: Pixabay

O Supremo Tribunal Federal (STF) se prepara para uma audiência pública nesta terça (28) e quarta-feira (29). O objetivo é discutir a constitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/2014), que trata da responsabilidade das plataformas de internet – um debate que certamente será influenciado pelos ataques golpistas ocorridos no dia 8 de janeiro deste ano.

Ao decidir sobre o artigo 19, é crucial que o tribunal leve em conta o contexto em que deve se situar a regulação de plataformas digitais no Brasil. Independentemente do resultado, o Supremo deve deixar abertas as portas para que o Congresso, o Executivo e todos os setores da sociedade participem do diálogo regulatório e formulem soluções para assegurar um ambiente online mais seguro e confiável.  

É preciso conceber uma regulação estrutural e sistêmica das plataformas digitais, que não se limite apenas aos tipos de conteúdo que devem ser removidos ou não da internet. Para garantir que essas plataformas respeitem e fomentem valores democráticos, é necessário compreender profundamente seus modelos de negócios, os riscos envolvidos em sua atuação e as formas adequadas de governança para mitigá-los. Isso exigirá uma discussão técnica sobre os contornos de um dever de cuidado que faça sentido no direito brasileiro, incluindo mecanismos e sistemas de governança necessários para que as plataformas sejam capazes de garantir a proteção de direitos fundamentais. 

Um possível modelo para a regulação de plataformas digitais no Brasil seria a criação de um sistema híbrido, que combine diferentes estratégias para criar uma regulação que melhor atenda ao interesse público com base na formulação de um dever de cuidado ao qual as plataformas digitais seriam submetidas. Embora no Brasil não exista uma tradução exata para o conceito de duty of care (que lastreia algumas das opções legislativas de outras jurisdições, como o Online Safety Bill no Reino Unido), é possível delinear um instituto análogo que faça sentido no contexto brasileiro, para criar obrigações específicas e submeter as plataformas a uma nova estrutura de transparência e prestação de contas.

Esse dever de cuidado pode ser forjado como parte de uma forma específica de regulação, baseada na interação entre arranjos de governança públicos e privados, que podem ser instituídos por meio de um novo projeto de lei geral de plataformas digitais ou por uma significativa reestruturação do PL das Fake News (PL 2630/2020). Nesse sentido, o dever de cuidado ajustado à realidade brasileira não seria algo genérico e subjetivo – tampouco simplesmente transplantado de outras jurisdições – mas sim uma obrigação permeada por parâmetros e requisitos bem definidos para tornar as plataformas mais responsáveis e para aprimorar suas próprias estruturas de supervisão e governança. 

Isso porque embora seja importante que haja uma regulamentação pública, não faria sentido que o Estado fiscalizasse burocraticamente todo o conteúdo disponível nas plataformas digitais. Modificar o artigo 19 do Marco Civil da Internet e implementar uma regulação baseada em conceitos predeterminados e estanques do que se entende por conteúdos que deveriam ser removidos das plataformas – como é o caso de “conteúdo antidemocrático” – não é uma estratégia eficaz e pode resultar em um jogo de gato e rato. É necessário que as plataformas digitais possam desenvolver os mecanismos internos de um regime de governança adequado para lidar com diferentes tipos de conteúdos problemáticos, e adotar uma gama de respostas para além da solução binária remover ou deixar online – incluindo medidas para reduzir o alcance de certas mensagens. Para isso, é fundamental que esses agentes sejam transparentes em relação ao modo como monitoram e exercem o dever de autogestão.  

Por outro lado, é importante que esse regime de governança não seja puramente privado. Ele deve ser previsto em lei, exigido e disciplinado pelo Estado, idealmente por meio de um regulador independente. A autorregulação, nesse contexto, não deve ser vista como adesão ao laissez-faire, mas como um instrumento importante para mitigar as assimetrias de informação, que são acentuadas no contexto das plataformas digitais.

Para isso, é fundamental que haja regras claras de monitoramento para regular tais procedimentos. Ou seja, regras do tipo “comando e controle”, que permitam que o regulador imponha o dever de cuidado e obrigue as plataformas a tomarem medidas de acordo com os riscos de suas atividades. Em outras palavras, é essencial que exista uma agenda regulatória de interesse público subjacente a qualquer agenda de autorregulação das plataformas digitais.  

Ademais, a regulamentação de plataformas digitais representa uma oportunidade para abordar o excesso de poder econômico concentrado em algumas dessas empresas, modificando as estruturas dos mercados digitais. Vale dizer: a concentração de poder econômico e o controle sobre infraestruturas e ativos por algumas plataformas digitais dominantes (chamadas de gatekeepers), das quais outras plataformas dependem para operar, pode criar um campo de jogo desigual que prejudica usuários finais e plataformas menores. Por isso, a futura regulação de plataformas não apenas deve forçar as plataformas a avaliar seus recursos e estruturas quanto ao risco de causar danos a indivíduos, mas também a tomar medidas apropriadas para mitigar riscos sistêmicos e ao mercado.   

Ao estabelecer um dever de cuidado, a regulação de plataformas pode ser uma ferramenta importante para promover a concorrência e o acesso equitativo a serviços digitais. Definindo regras para interoperabilidade e portabilidade de dados, por exemplo, o regulador pode permitir que novas empresas entrem no mercado, reduzindo a dependência de gatekeepers existentes e criando, desse modo, um ambiente mais competitivo. Além disso, ao promover a transparência e a não discriminação, a regulação pode ajudar a evitar que as plataformas usem seu poder para favorecer certos concorrentes em detrimento de outros.  

Enfim, se nos concentrarmos exclusivamente no modelo de responsabilização do artigo 19 do Marco Civil da Internet e na discussão sobre quais tipos de conteúdo devem ou não ser permitidos online, perderemos uma oportunidade valiosa de debater modelos de governança capazes de aumentar a accountability e transparência das plataformas digitais no Brasil. Esse diálogo não deve se limitar somente aos conteúdos prejudiciais, devendo contemplar também a promoção de ecossistemas digitais mais competitivos e abertos à inovação.

A audiência pública no STF pode ser um marco crucial para iniciar o debate, mas não para concluí-lo. O futuro da regulação de plataformas digitais no Brasil está na construção democrática de um marco regulatório inovador, sistêmico e estruturante, que dê conta das particularidades desses atores cada vez mais influentes na economia e em nossas vidas.

*

Este texto é parte da nossa série de artigos “Desafios da Regulação Digital”. Ele não estava originalmente previsto e foi escrito por conta da importância dos debates sobre a constitucionalidade do artigo 19 do Marco Civil da Internet, que o STF agendou para esta semana. Os dois primeiros textos da série estão aqui e aqui.logo-jota

Os artigos publicados pelo JOTA não refletem necessariamente a opinião do site. Os textos buscam estimular o debate sobre temas importantes para o País, sempre prestigiando a pluralidade de ideias.