Em uma entrevista no dia 27 de setembro de 2024 na TV GGN (com Luis Nassif), Ergon Cugler, pesquisador do IBICT – Instituto Brasileiro de Informação, Ciência e Tecnologia – comentou sobre uma pesquisa na qual foram analisados mais de 27 milhões de conteúdos postados nos últimos oito anos (2016-2024) por mais de 2,2 milhões de usuários em 855 comunidades abertas no Telegram. Ele aborda um conjunto de temas caros à extrema-direita, com forte presença nas redes sociais, como comunidades terraplanistas, desinformação sobre mudanças climáticas, antivacinas (que tiveram um papel importante na desinformação durante a pandemia que vitimou mais de 750 mil pessoas no Brasil) e uma profusão de teorias da conspiração.
Uma dessas teorias é sobre os Reptilianos (“homens-lagarto ou draconianos, que são seres humanoides de aparência escamosa”), que, segundo seus defensores, fazem parte de um complô internacional dedicado a tomar decisões sobre o futuro das nações. Ou seja, estariam secretamente entre os humanos há séculos, tomando decisões políticas importantes, mas desconhecidas do público.
Além de maluquices como a teoria de que o presidente Lula teria cinco clones, há grupos dedicados ao negacionismo histórico, espalhando fake news e narrativas falsas tanto sobre o presente quanto sobre o passado. Um exemplo é a negação do Holocausto e a relativização da escravidão no Brasil. Não é fácil combater essas narrativas usando critérios de racionalidade, como argumenta o químico Mark Lorch, professor de Engajamento Público e Comunicação Científica da Universidade de Hull (universidade pública de pesquisa em Kingston upon Hull, na Inglaterra), no artigo “Por que as pessoas acreditam na teoria da conspiração e como conseguir que mudem de opinião”, publicado no El País em 26 de agosto de 2017. Ele explica por que os fatos e os argumentos racionais não são muito eficazes para alterar crenças e sugere maneiras de tentar mudar essas opiniões, muitas delas estapafúrdias e difundidas nas redes.
Uma das teorias citadas por Cugler na pesquisa sobre o Telegram refere-se ao chamado “detox vacinal”. Ele afirma: “Está bombando uma teoria da conspiração, uma mentira, uma desinformação, sobre um tal de ‘detox vacinal’. Eles inventam a história de que quem tomou vacina supostamente tem nanorrobôs, microchips, dentro do organismo. Depois de causar pânico social, vendem uma solução milagrosa, que seria esse ‘detox’, composto por três gotinhas de dióxido de cloro de limpeza industrial, para tomar todas as noites, supostamente para desintoxicar. Além de vender o frasco de dióxido de cloro, também começaram a produzir e-books explicando como tomar o produto e oferecendo cursos online sobre como produzi-lo.”
Assim, mais do que desinformação, mentiras e defesa do ideário da extrema-direita, há quem lucre com isso, não apenas politicamente, mas financeiramente, monetizando essas teorias, vendendo soluções “milagrosas”, publicando e-books, oferecendo cursos online, etc.
A pesquisa também revela, entre outros aspectos relevantes, o crescimento de grupos neonazistas, que teve um grande impulso durante o governo Bolsonaro. Uma matéria publicada no jornal O Globo em 16 de janeiro de 2022 menciona um mapa elaborado pela antropóloga Adriana Dias, que estudou o que chamou de etnografia do neonazismo no Brasil, mostrando que havia 530 grupos ativos no país e que houve um crescimento de 270,6% de janeiro de 2019 a maio de 2021.
Esse crescimento continuou nos anos seguintes. Em março de 2024, o Global Project Against Hate and Extremism (GPAHE – Projeto Global Contra o Ódio e o Extremismo) divulgou um relatório detalhando as atividades e ideologias de grupos de extrema-direita que operam no Brasil, com dados sobre “a complexa rede de organizações que promovem ideologias que estimulam a violência, a discriminação e a divisão no país e buscam minar uma democracia multicultural”.
O relatório lista alguns grupos que atuam usando a internet e as redes sociais. Como consta na página de apresentação do relatório: “Assim como nos EUA, a extrema-direita representa uma grave ameaça à democracia brasileira, inclusive por meio de um ataque direto aos prédios federais do país em 8 de janeiro de 2023 (…) os apoiadores de Bolsonaro, furiosos com sua derrota na eleição presidencial de 2022 e inflamados por suas alegações infundadas de fraude eleitoral, realizaram ações surpreendentemente semelhantes ao ataque ao Capitólio dos EUA realizado por apoiadores de Trump em 6 de janeiro de 2021”.
Esses grupos, além de atuarem no Telegram, possuem milhares de seguidores e estão fortemente conectados e articulados com outros, tanto dentro quanto fora do Brasil, compartilhando os mesmos conteúdos e coordenando ações, como as citadas anteriormente.
O problema central, a meu ver, especialmente no Brasil, é a falta de uma legislação específica que possa coibir esse tipo de uso da internet e das redes sociais para mentir, desinformar e ainda lucrar financeiramente.
Sem uma legislação, ocorrem fatos como o de abril de 2023, por exemplo, quando o Telegram foi notificado pela Polícia Federal para entregar dados de grupos que faziam apologia ao nazismo. Isso foi resultado de uma iniciativa, no dia 6 de abril, do ministro da Justiça e Segurança Pública, Flávio Dino, que determinou a investigação de células que promoviam o nazismo nas redes. Esse movimento ocorreu após ataques a escolas, como o de duas escolas em Aracruz (ES), no dia 25 de novembro de 2022, que resultou em quatro mortes. As investigações da polícia apontaram que o autor dos ataques interagiu em grupos neonazistas no Telegram.
Inicialmente, a plataforma se recusou a entregar os dados dos usuários, afirmando que “feria o direito à liberdade de expressão” e defendendo “a privacidade dos usuários”, confundindo liberdade de expressão com liberdade para cometer crimes.
No entanto, no dia 21 de abril de 2023, após a Justiça estabelecer uma multa de R$ 100 mil por dia caso os dados não fossem compartilhados, e com a possibilidade de bloqueio do aplicativo, o Telegram cedeu. Segundo o ministro, o objetivo, como estabelecido na Portaria 351/2023, assinada por ele, era identificar e combater grupos e indivíduos que promovem ameaças através das plataformas, sendo que, naquele momento, apenas o Telegram não havia atendido à solicitação.
A Portaria 351 “Dispõe sobre medidas administrativas a serem adotadas no âmbito do Ministério da Justiça e Segurança Pública, para fins de prevenção à disseminação de conteúdos flagrantemente ilícitos, prejudiciais ou danosos por plataformas de redes sociais”.
São nove artigos, e o Art. 1º diz: “Esta Portaria dispõe sobre medidas administrativas a serem adotadas no âmbito do Ministério da Justiça e Segurança Pública, para fins de prevenção à disseminação de conteúdos flagrantemente ilícitos, prejudiciais ou danosos por plataformas de redes sociais referentes a extremismo violento que incentivam ataques a ambiente escolar ou fazem apologia e incitação a esses crimes ou a seus perpetradores”.
O entendimento é de que as plataformas de redes sociais “não são simples exibidoras de conteúdos postados por terceiros, mas mediadoras dos conteúdos exibidos para cada um de seus usuários, definindo o que será exibido, o que pode ser moderado, o alcance das publicações, a recomendação de conteúdos e contas. Assim, não são agentes neutros em relação aos conteúdos que nelas transitam”.
Mas como combater de forma eficaz a circulação desses conteúdos em plataformas digitais? É necessário mais do que uma portaria do Ministério da Justiça e Segurança Pública; é preciso uma lei aprovada no Congresso Nacional – que tem a prerrogativa de elaborar e aprovar leis – e sancionada pelo presidente da República. Nesse sentido, em 2020 foi apresentado um Projeto de Lei (n.º 3620), conhecido como o PL das fake news, que trata da regulação das plataformas digitais. O projeto foi aprovado no Senado no dia 30 de junho de 2020 (44 votos a favor, 32 contra e duas abstenções) e, entre outras coisas, propôs a criação da Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, visando combater a disseminação de conteúdos falsos nas redes sociais e nos serviços de mensagens privadas, estabelecendo normas relativas à transparência das redes sociais e à responsabilidade dos provedores que contribuírem para disseminar desinformação, com sanções em caso de descumprimento da lei.
Após ser aprovado no Senado, o projeto foi remetido à Câmara dos Deputados no dia 03 de julho de 2020. Quase três anos depois, em abril de 2023, o projeto teve o regime de urgência aprovado, permitindo que fosse votado diretamente no plenário. A data prevista para a votação era 2 de maio de 2023, mas não foi votado e o processo foi adiado sem nova data prevista para votação.
Quase quatro anos depois, em abril de 2024, após muitos debates, audiências públicas e modificações no projeto original, o presidente da Câmara dos Deputados, Artur Lira, decidiu encerrar a sua tramitação, criando um Grupo de Trabalho com o objetivo de elaborar, em 40 dias, outro projeto de lei. O prazo, mais uma vez, não foi cumprido.
As perspectivas de aprovação, mesmo com modificações, não são otimistas. O Grupo de Trabalho, composto por 20 integrantes, conta com apenas cinco deputados que, desde o início, têm de fato se comprometido com o projeto original: Orlando Silva (PC do B/SP), relator do PL, Afonso Motta (PDT-RS), Erika Hilton (PSOL-SP), Jilmar Tatto (PT-SP) e Lídice da Mata (PSB-BA).
É pouco provável que outro projeto de lei seja votado até o fim do mandato de Artur Lira na presidência da Câmara dos Deputados. Assim, resta aguardar como será a tramitação sob o novo presidente da Câmara, o que só deverá ocorrer no próximo ano. Se ocorrer.
Sem uma legislação que possa regular o uso das plataformas digitais, vigaristas que criticam a ciência sem qualquer fundamento, oferecendo “tratamentos alternativos” com o objetivo de lucrar (à custa da ignorância e da saúde dos outros), além de adeptos e divulgadores de teorias da conspiração, comunidades antivacinas, revisionistas e grupos neonazistas, deverão continuar no “submundo obscuro da conspiração nas redes” e, pior, impunes.