Ana Frazão
Advogada. Professora associada de Direito Civil, Comercial e Econômico da UnB. Ex-Conselheira do CADE.
Acompanhar o que vem ocorrendo no cenário político do Brasil e de vários outros países do mundo tem sido uma experiência perturbadora para aqueles que, como eu, não acreditavam que as democracias pudessem ser tão frágeis e tão facilmente manipuladas.
Obviamente que as razões pelas quais as democracias perecem ou vão sendo progressivamente corroídas, diretamente ou “pelas bordas”, são múltiplas e complexas, o que já deu ensejo a inúmeros livros, artigos e pesquisas sobre o tema nos últimos anos. Entretanto, dentre os inúmeros fatores que podem ser mencionados, há de se destacar o papel cada vez mais importante e estratégico de vários modelos de negócio, como é o caso das plataformas digitais.
À medida em que se tornaram gatekeepers do fluxo informacional, selecionando, filtrando e ranqueando os conteúdos que chegarão a cada usuário, elas se tornaram elementos-chave da esfera pública e da democracia, exercendo um papel que está muito longe da neutralidade que costumam aparentar. Muito mais do que “praças públicas”, tais agentes não se limitam a oferecer apenas um espaço virtual de interação, mas também oferecem os assuntos e os enquadramentos a que cada um terá acesso, individualmente ou por meio de seus grupos. A depender do caso, o próprio público pode ser criado artificialmente, por meio de robôs e perfis falsos.
Não é nenhuma surpresa, portanto, diante do contexto descrito, que as plataformas tenham se tornado meios estratégicos e fundamentais para a disseminação de ideias populistas e autoritárias, mesmo que baseadas em desinformação e mentiras e mesmo que os seus resultados sejam sociedades cada vez mais divididas, polarizadas e esgarçadas, nas quais a capacidade de ouvir e dialogar com os outros, especialmente com os que têm opiniões distintas, é substituída pelo ódio e pelo desprezo aos que pensam diferente.
A maior prova da relevância das plataformas digitais para fins políticos é a recente iniciativa do presidente Jair Bolsonaro de, por meio da famigerada Medida Provisória 1.068, de 06/07/2021, tentar impedir que as plataformas possam excluir conteúdos ilícitos ou claramente falsos, bem como discursos de ódio, o que já se demonstrou não ter qualquer fundamento jurídico[1]. O interesse em tratar desse tema, ainda que de forma imprópria, açodada e inadequada, é a confissão do quanto o governo depende da infraestrutura das plataformas para manipular ao máximo as informações e engajar seus apoiadores.
Aliás, também não é sem razão que, nos termos da reportagem da Folha de São Paulo de 07/09/2021 – “Ação de robôs pró-Bolsonaro cresce nas redes. Movimentação de contas automatizadas nos últimos dias impulsionou convocação para as manifestações do dia 7” -, há todo um exército de robôs colocado à disposição para executar esse tipo de engajamento político e criar a falsa impressão de que se trata de um movimento totalmente popular e espontâneo.
Como já tive oportunidade de abordar em diversos artigos, não há nada de novo no chamado poder persuasivo e na utilização da mentira e da desinformação para fins políticos. O que há de novo é que a internet e os novos modelos de negócio possibilitam uma abordagem individualizada de cada cidadão – o chamado microtargeting – cujo efeito é mais intenso e nefasto do que todas as formas de comunicação e propaganda até então utilizadas.
No excelente livro Network Propaganda[2], Benkler, Faris e Roberts já haviam alertado para o fato de que determinados modelos de negócios, notadamente plataformas digitais, poderiam viabilizar tal grau de distorção do fluxo informacional que isso poderia comprometer até mesmo aquilo que é uma das maiores conquistas de uma democracia: o resultado de eleições.
Verdade seja dita que, com as informações até então existentes, os autores foram cautelosos em seus diagnósticos, a fim de afastar qualquer conclusão no sentido de que a eleição de Donald Trump teria decorrido dessa “corrupção” do fluxo informacional. Entretanto, como eles mesmos advertiram, as evidências coletadas e o simples fato de haver esse receio já deveriam ser motivos suficientes para uma reflexão mais aprofundada sobre o assunto, até porque tudo levava a crer que os riscos só aumentariam a partir daí.
Alguns anos depois, o receio dos autores só se confirmou, diante de uma série de outras descobertas supervenientes que mostraram que, alterando e manipulando o fluxo informacional, é possível alterar as escolhas das pessoas.
Todo esse processo de manipulação para fins políticos foi mostrado, de maneira bastante detalhada, por Christopher Wylie[3], famoso denunciante (whistleblower) que havia sido diretor da Cambridge Analytica e que resolveu contar, em detalhes, como se operacionaliza o negócio de controle de mentes (brain control) dos eleitores. Para o autor, a estratégia de microtargeting que já havia sido adotada por Barack Obama foi um momento delicado para a democracia, na medida em que possibilitou a abertura de um perigoso caminho, baseado na guerra psicológica, em que dados são armas e potenciais eleitores são alvos a serem identificados e manipulados.
O autor também mostra como a engrenagem dos dados - direcionada e supervisionada por psicólogos, a partir do acesso a dados que decorria da parceria entre a Cambridge Analytica e o Facebook - era utilizada prioritariamente para identificar usuários que manifestavam interesses sensacionalistas e extremistas, pessoas vulneráveis, frustradas e ressentidas ou personalidades com traços doentios, como narcisistas, maquiavélicos e psicopatas.
Eram essas as pessoas prioritariamente atraídas para grupos de extrema direita criados e administrados pela própria Cambridge Analytica, a fim de que ali se organizasse um ecossistema informacional alimentado por teorias da conspiração e opiniões de ódio, que depois passava a ter “vida própria”, na medida em que os próprios membros iam convidando amigos e familiares e passavam a produzir – e não somente compartilhar – conteúdos afins.
A mesma estratégia de exploração de dados e vieses cognitivos para espraiamento de falsas narrativas foi também empregada, segundo Wylie, no Brexit, em que também se criou movimento político formado por cidadãos ressentidos e com tendências conspiratórias, diante do potencial de ação que esses grupos representam.
O referido diagnóstico não se diferencia muito do de Roger McNamee[4], em livro no qual trata mais especificamente do papel do Facebook. Segundo o autor, vigilância constante, compartilhamento de dados dos usuários e modificações comportamentais são a receita do sucesso da plataforma, que usa a “gratuidade” dos serviços para evitar a regulação e qualquer iniciativa que leve à transparência dos seus algoritmos.
Para McNamee, o Facebook se utiliza de diversas técnicas preocupantes, dentre as quais a que chama de brain hacking, a fim de manter o usuário online o mais tempo possível. Todavia, a que considera mais sofisticada e sinistra é o algoritmo da plataforma, que decide o que mostrar a cada usuário, a fim de engajá-lo cada vez mais em sua rede, o que é feito a partir da priorização de emoções fortes. Tal estratégia é especialmente preocupante quando os usuários estão presos em bolhas nas quais seus medos e receios são constantemente reforçados por pessoas com visões similares.
Diante do contexto descrito, não é difícil entender a formação de bolhas e polarizações, ainda mais quando muitas pessoas só recebem informações pelo Facebook e acreditam que estão tendo acesso a um conteúdo confiável e minimamente equilibrado. Entretanto, não é isso que acontece na prática e, o que é pior, embora os algoritmos tenham um poder imenso para efeitos de controle do fluxo informacional, não têm nenhuma responsabilidade cívica em evitar que os usuários recebam visões de mundo cada vez mais enviesadas e ensejadoras de polarizações e desagregações.
A facilidade da manipulação informacional é demonstrada a partir do exemplo dos russos, que utilizaram o Facebook como meio sub-reptício, mas extremamente eficaz, para influenciar as eleições americanas. De fato, os russos conseguiram alcançar, com gastos em torno de 100 mil dólares e contas falsas, 126 milhões de usuários do Facebook e outros 20 milhões no Instagram. Segundo McNamee, como 137 milhões de pessoas votaram na eleição, é difícil negar que a interferência não teve impactos teve impacto em um pleito apertado, em que 4 milhões de americanos que votaram em Obama não votaram em Hillary Clinton, que, por sua vez, foi alvo de uma das mais sórdidas campanhas de fake news de que se tem notícia.
Vários desses pontos são retomados também no interessante livro de Sheera Frenkel e Cecilia Kang[5], que oferece ao leitor uma visão dos bastidores do Facebook, inclusive no que diz respeito à eleição de Trump, a fim de se chegar à conclusão de que o problema da desinformação vai muito além de um algoritmo que perdeu o controle. Trata-se, na verdade, de um intrincado conjunto de ações e omissões da companhia que acabaram resultando em graves prejuízos para a democracia, ainda mais em um contexto em que, com base em dados de 2016, 44% dos americanos se informavam sobre candidatos por meio do Facebook, Twitter, Instagram e YouTube.
Para as autoras, a raiz do problema da desinformação está na própria tecnologia, já que os algoritmos do Facebook favorecem o sensacionalismo e lançam gasolina na fogueira de qualquer mensagem que desperte emoções fortes, mesmo que seja um discurso de ódio. Soma-se a isso o fato de que a plataforma está consciente da sua capacidade de manipular a emoção das pessoas, inclusive por meio do “contágio emocional indireto”.
Dentre as muitas histórias narradas pelas autoras, chama a atenção, mais uma vez, a atuação do grupo russo Internet Research Agency (IRA), que se dedicava basicamente a colocar os americanos uns contra os outros. Onde quer que houvesse um assunto polêmico e que poderia levar a discussões e esgarçamentos, lá estava a IRA para manter páginas com posições extremistas e estimular a discórdia entre os americanos.
Outra história que também chama a atenção é a dos grupos anti-vacinação, pois, segundo as autoras, o algoritmo do Facebook foi o recurso mais eficiente a ser utilizado pelos negacionistas. Bastava que alguém começasse a seguir grupos sobre “terapias naturais” ou “medicina holística” para que fosse arrastado para um “labirinto de sites” nos quais acabava recebendo convites para entrar em algum grupo anti-vacinação, onde era submetido a conteúdos extremistas.
Daí terem destacado as autoras que, já em 2018, George Soros advertia para o fato de que o modelo de negócios do Facebook e do Google capturavam a atenção dos usuários com fins comerciais, induzindo as pessoas a abrirem mão de sua autonomia pois, como monopólios que são, não têm vontade nem intenção de proteger a sociedade das consequências de suas ações.
Aliás, já se teve a oportunidade de mostrar que, a depender do contexto, tais modelos de negócio podem até remunerar – e muito bem – produtores de conteúdos ilícitos ou falsos, tal como ocorre com o YouTube[6]. Não é sem razão a recente decisão do corregedor do Tribunal Superior Eleitoral (TSE), ministro Luís Felipe Salomão, de determinar que as plataformas digitais suspendam repasses financeiros a páginas que propagam desinformação[7].
Como se pode observar pelas obras ora comentadas, tais modelos de negócios, intencionalmente ou não, têm possibilitado que as democracias sejam erodidas por diferentes formas. Em muitos casos, têm criado incentivos para que isso aconteça, seja por meio de seus algoritmos, seja por meio de seus critérios de monetização, seja por meio de parceiros que, a exemplo da Cambridge Analytica, usam os dados de usuários para a manipulação de eleitores.
Ora, se democracia pressupõe informação, debates racionais, capacidade de discordância e de construção de consensos ou soluções de compromisso, não há dúvida do potencial lesivo de modelos de negócio que levam ao cenário oposto, ou seja, de desconfiança absoluta, discórdia, incapacidade de ouvir e debater e sentimentos de ódio e aniquilação dos adversários.
Além do esgarçamento do tecido social e das instituições, soma-se à manipulação informacional a possibilidade de utilização de técnicas de manipulação digital que, por meio de uma série de recursos, muitos dos quais focados no subconsciente das pessoas, têm por finalidade suprimir o próprio livre arbítrio e o processo decisório.
Os receios se tornam ainda mais graves quando os chamados algoritmos que ditam as regras de tais negócios são opacos e sem qualquer transparência, o que dificulta o controle social sobre as manipulações do fluxo informacional, criando muitas dificuldades para se saber a que conteúdo cada cidadão tem acesso. A questão é tão grave que, em recente livro Privacy is power, Carissa Véliz[8] sustenta a supressão do conteúdo personalizado – personalized advertising – diante dos danos potenciais que isso pode gerar.
A partir do momento em que as plataformas têm o poder de selecionar, filtrar e ranquear os conteúdos a que cada usuário terá acesso, isso pode ser feito de modo a que cada um receba uma visão de mundo totalmente distinta, sendo que, nos casos mais extremos, pode não haver consenso mínimo nem mesmo em relação a fatos objetivos, em razão da desinformação e da mentira.
Talvez isso ajude a explicar a circunstância de que, em tempos atuais, não são raros os momentos de estranhamento que todos nós temos com pessoas que parecem viver em uma realidade paralela, especialmente quando apenas se informam por meio de redes sociais e seus grupos de aplicativos de comunicação. E a questão é que elas podem mesmo estar vivendo nessa realidade paralela... E, o que é mais grave, se isso acontece, o problema não é só delas, mas de todos nós, diante das repercussões óbvias no tecido social e na própria preservação da democracia.
Vários dos episódios mencionados no presente artigo mostram que nossas democracias estão à venda e que, para alterar resultados de eleições, não há necessidade de convencer a totalidade da população nem mesmo a maioria. Aliás, não há necessidade de convencer nem mesmo uma minoria expressiva. Basta convencer uma pequena minoria raivosa e ressentida, que esteja disposta a tudo, inclusive pegar em armas, para que façam aquilo para o qual foram doutrinadas a fazer.
Se estamos realmente preocupados com a preservação de nossas democracias, é urgente que avancemos em iniciativas que assegurem maior qualidade do fluxo informacional, maior cuidado e respeito com os usuários de plataformas e seus dados pessoais e uma reconfiguração de vários modelos de negócios, a fim de que não se tornem instrumentos fáceis – e até relativamente baratos – de erosão da democracia.
--------------------------
[1] Ver FRAZÃO, Ana. Novo Marco Civil da Internet. A inadequação e os riscos de se impedir que plataformas digitais cumpram o seu papel de fazer uma eficiente curadoria de conteúdos. Jota. https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/novo-marco-civil-da-internet-02062021
[2] BENKLER, Yochai, FARIS, Robert; ROBERTS, Hal. Network Propaganda. Manipulation, Disinformation and Radicalization in American Politics. Oxford University Press, 2018.
[3] WYLIE, Christopher. Mindf*uck. Cambridge Analytica and the Plot to Break America. Random House, 2019.
[4] MCNAMEE, Roger. Zucked: Waking up to the Facebook Catastrophe. Harper Collins, 2019.
[5] FRENKEL, Sheera; KANG, Cecilia. Uma verdade incômoda. Os bastidores do Facebook e sua batalha pela hegemonia. Companhia das Letras, 2021.
[6] Ver FRAZÃO, Ana. A delicada questão da monetização dos negócios de divulgação de conteúdos
O papel dos sistemas de monetização em criar incentivos para ilícitos. Jota. https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/a-delicada-questao-da-monetizacao-dos-negocios-de-divulgacao-de-conteudos-16122020
[7] https://www.tse.jus.br/imprensa/noticias-tse/2021/Agosto/corregedor-do-tse-determina-que-plataformas-digitais-suspendam-repasses-financeiros-a-paginas-que-propagam-desinformacao
[8] VÉLIZ, Carissa. Privacy is power. Why and How You Should Take Back Control of Your Data. Bantam Press, 2021.