Danielle Anne Pamplona
Copresidente da Global Business and Human Rights Scholars Association. Doutora em Direito e coordenadora do Programa de Pós-Graduação em Direito da PUC-PR. Consultora na área de direitos humanos, sustentabilidade e ESG
A proteção de crianças e adolescentes nos ambientes digitais avança no Brasil, apesar de o projeto de regulação das plataformas digitais não ter alcançado suficiente apoio para ir à votação. Duas importantes iniciativas vêm ocupando a agenda dos direitos das crianças e adolescentes. A primeira foi a publicação da Resolução 245/2024 do Conselho Nacional dos Direitos da Criança e do Adolescente (Conanda), a segunda foi o avanço do PL 2628/2022.
Ambas as iniciativas, que buscam a proteção de crianças e adolescentes no ambiente digital, parecem estar inspiradas no marco normativo onusiano chamado Princípios Orientadores sobre Empresas e Direitos Humanos, especialmente quando tratam da responsabilidade das empresas em prevenir impactos negativos das suas atividades em direitos, e da responsabilidade em enfrentar esses impactos. Além disso, os textos são complementares. O PL tem disposições que acabam sendo explicitadas pela Resolução e, com a aprovação da Resolução antes do Projeto, o processo parece um tanto desconexo, eis que ainda não temos a lei, mas a Resolução já detalha alguns de seus dispositivos.
A aprovação do texto atual do projeto pode introduzir diversas novidades na regulação do setor digital no país. Ele prevê a proibição do perfilamento de crianças e adolescentes para direcionamento de publicidade, assim como a vedação às redes sociais de criarem perfis comportamentais de menores com os dados obtidos pelo uso de suas plataformas, acompanhando a tendencia da regulação europeia.
Prevê também, em seu artigo 21, que os fornecedores de serviços digitais devem “proceder à retirada de conteúdo que viola direitos de crianças e adolescentes assim que forem comunicados do caráter ofensivo da publicação, independentemente de ordem judicial”. Tal disposição pode representar a primeira exceção legal ao artigo 19 do Marco Civil da Internet (Lei 12.965/2014), ao buscar instituir um mecanismo de notice and action em redes sociais no Brasil. O PL, entretanto, não detalha o tipo de conteúdo que considera passível de retirada. Todavia, a Resolução 245/2024 o faz, em seu artigo 6º §1º.
Uma das principais contribuições da Resolução 245/2024 é incorporar no ordenamento doméstico os estândares do direito internacional dos direitos humanos, como as orientações do Comentário Geral 25 do Comitê de Direito das Crianças da Nações Unidas. A diretriz acertadamente estabelece que os provedores de serviços digitais devem ser responsáveis pelos riscos que seus serviços podem causar nas crianças e adolescentes.
No entanto, ao estabelecer as responsabilidades das empresas provedoras de produtos e serviços digitais via resolução normativa, levanta uma discussão quanto a uma exorbitação da competência legal do Conselho. Aqui também parece claro que a Resolução está dialogando como texto do Projeto de Lei, ao, desde logo, esclarecer o significado de termos utilizados pelo projeto.
É o caso da menção, no projeto, de um “dever de cuidado” por essas empresas, conceito inexistente na legislação brasileira. Este conceito está presente em sistemas de common law, e é utilizado quando se quer estabelecer a responsabilidade de entes privados por violações de direitos humanos. A legislação brasileira não o utiliza, mas a jurisprudência apresenta alguma evolução sobre o conteúdo deste conceito. A Resolução parece socorrer a definição do conteúdo deste conceito, ao indicar, entre os artigos 17 e 24, quais são os cuidados que as empresas devem tomar para prevenir ou mitigar a ocorrência de impactos.
Em consonância com o arranjo dos Princípios Orientadores, a Resolução estabelece responsabilidades para empresas de tecnologia (arts.22 e 23) de identificar, medir, avaliar e mitigar preventiva e diligentemente os riscos reais ou previsíveis aos direitos e interesse superior de crianças e adolescentes relacionados às funcionalidades, à concepção, gestão e funcionamento de seus serviços e sistemas, inclusive os algorítmicos, de redes sociais, jogos, aplicativos e demais ambientes digitais. É uma clara alusão ao dever de adotar um processo de devida diligência em direitos humanos, ferramenta principal oferecida pelos Princípios Orientadores para que empresas possam identificar os riscos que representam aos direitos humanos e elaborar planos para sejam prevenidos ou mitigados, e se concretizados, enfrentados adequadamente.
Além disso, a Resolução prevê uma obrigação de publicar relatórios de transparência quanto ao funcionamento de serviços digitais e de avaliação de riscos aos direitos de crianças e adolescentes. Tal obrigação sobre o setor empresarial, ainda mais no contexto específico de proteção a crianças e adolescentes, também não está presente no ordenamento jurídico brasileiro. Tais medidas, sem previsão legal, acabam por enfraquecer o texto da Resolução e a própria autoridade do Conselho, uma vez que se pode encontrar resistência para o cumprimento das medidas por parte do setor corporativo. Neste sentido a deliberação e aprovação do PL 2628/2022 será fundamental para garantir a vinculação das previsões protetivas às empresas privadas.
Apesar dos ajustes finos que ainda são necessários e da ampla discussão com a sociedade civil e demais atores interessados na matéria, o PL 2628/2022 aponta a consolidação da tendência do Brasil em seguir o exemplo do modelo regulatório da União Europeia (UE) que vem avançando na responsabilidade das empresas que dominam o ambiente digital.
Tanto a resolução do Conanda como o PL 2628 são amplamente influenciados pelo Digital Services Act (DSA) de 2022. Essa legislação já vem sendo utilizada pela UE para buscar maior proteção do público infanto-juvenil na Internet. Em fevereiro deste ano a Comissão Europeia, com base na nova regulação, iniciou uma investigação formal para verificar se o TikTok tem adotado medidas para proteger menores em sua plataforma. Em abril, a rede social chinesa também foi questionada, pela Comissão, a respeito dos impactos de uma nova versão disponibilizada na Europa, na saúde mental de crianças e adolescentes.
Um outro país que vem apresentando medidas nesse sentido é, surpreendentemente, os Estados Unidos. Tradicionalmente, os EUA adotam uma abordagem de regulação mínima do ambiente digital, baseando-se em princípios como a liberdade de expressão e a preservação do livre-mercado. Apesar das discussões sobre o regime de responsabilidade das plataformas, enquanto o Congresso estadunidense não atua, os Estados vêm tentando pressionar o setor privado para que cumpram com sua responsabilidade de proteger os direitos das crianças e adolescentes. O Novo México apresentou recentemente uma ação contra a Meta por supostamente ter falhado em proteger crianças e adolescentes de aliciamento sexual na plataforma, ao mesmo tempo em que investiga a prática de assinaturas de contas de menores nessas redes sociais.
Em geral, os desenvolvimentos no primeiro semestre de 2024, no Brasil e no mundo, apontam que a regulação do ambiente digital para proteger crianças e adolescentes está ganhando espaço. A proteção de menores no ambiente digital é tema de fácil consenso – tendo em vista os diferentes riscos a que estão expostos no ecossistema digital –, diferente de temas mais polarizados como o combate à desinformação ou a garantia da integridade eleitoral, o que favorece a aprovação de medidas regulatórias. A Resolução 245/2024 do Conanda e o PL 2628/2022 já deram o primeiro passo para essa mudança no Brasil.
No entanto, um melhor esclarecimento sobre as obrigações das empresas é fundamental para que o Projeto de Lei possa efetivamente surtir os efeitos desejados. A ideia de dever de cuidado precisa ser aprofundada, com disposições claras de seu significado em termos práticos para os provedores de serviços digitais.
As avaliações de risco previstas no art. 8º do PL 2628 precisam ser públicas e, assim como no DSA, as empresas devem garantir acesso aos dados aos pesquisadores independentes que queiram avaliar os riscos e impactos dos serviços digitais nas crianças e adolescentes.
No mais, é preciso se atentar que a regulação de grandes empresas costuma passar por um conjunto inteligente de medidas (smart mix of measures) que vão além da regulação nacional, mas precisam ser complementadas por medidas de autorregulação ou corregulação e um ecossistema de políticas públicas que seja capaz de exigir e fiscalizar a atividade corporativa.