No começo de maio, as areias de Copacabana foram palco de um show histórico — e recordista de público para uma cantora — protagonizado por Lady Gaga. O evento reuniu impressionantes 2,1 milhões de pessoas no Rio de Janeiro, impulsionando a economia local e atraindo fãs de toda a América Latina.
Um dos fatores decisivos para o sucesso do show foi o trabalho eficiente das autoridades de segurança. A polícia atuou com precisão ao impedir um atentado que, segundo as investigações da operação batizada como "Fake Monster", seria executado com requintes de crueldade durante a apresentação. O ataque, que envolvia explosivos e até o assassinato premeditado de uma criança, foi planejado por um grupo extremista. A ação criminosa foi articulada em redes sociais e aplicativos de mensagens, ambientes onde os responsáveis cooptaram novos participantes inflados por discursos de ódio, especialmente direcionados ao público LGBTQIAPN+.
Além do êxito da operação policial, o episódio levanta um ponto crucial: a governança da internet e a moderação de conteúdo online. As redes sociais vêm sendo exploradas por grupos extremistas não apenas para propagar discursos de ódio, mas também para recrutar indivíduos dispostos a praticar crimes. Quando essas manifestações ultrapassam o ambiente virtual, as consequências podem ser trágicas e irreversíveis.
Geralmente, os alvos desses discursos são minorias e grupos historicamente discriminados por razões tão variadas quanto injustificáveis: gênero, orientação sexual, etnia, entre outros. É certo que tais discursos não encontram respaldo na lei e não se confundem com liberdade de expressão ou livre manifestação do pensamento. No entanto, o debate sobre a regulação do conteúdo online ainda é, muitas vezes, distorcido como uma ameaça à liberdade, quando na verdade se trata de proteger direitos fundamentais.
É legítima a preocupação de que a moderação não se transforme em censura. Nem todo conteúdo deve ser removido da rede. O que se impõe é a necessidade urgente de desenvolver estratégias e medidas legais capazes de proteger a sociedade contra discursos extremistas que, comprovadamente, têm impacto nocivo no tecido social.
No exterior, há exemplos claros de legislações que enfrentam essa questão. A União Europeia, por meio do DSA - Digital Services Act, estabelece regras rígidas para que plataformas digitais ajam de forma mais transparente e eficaz na remoção de conteúdos ilegais. Da mesma forma, leis nacionais como a NetzDG, da Alemanha, obrigam plataformas com mais de dois milhões de usuários a retirar material ilegal no prazo máximo de 24 horas após denúncia formal.
No Brasil, a principal legislação sobre o uso da internet é o Marco Civil da Internet, que entrou em vigor há mais de uma década, num contexto bastante distinto dos desafios atuais. As discussões sobre novas regras evoluem de forma lenta: projetos de lei tramitam a passos vagarosos, enquanto processos com repercussão geral ainda aguardam julgamento no STF.
A ausência de normas claras sobre moderação também contribui para outros problemas graves, como a disseminação de desafios perigosos que colocam em risco crianças e adolescentes. É urgente que se estabeleçam medidas que exijam das plataformas um monitoramento mais eficaz e uma atuação mais proativa na remoção de conteúdos evidentemente ilegais.
Esse contexto deveria servir de estímulo para que o Poder Legislativo acelere a análise das propostas sobre o tema, em diálogo com especialistas e a sociedade civil. Somente assim será possível garantir não apenas uma internet mais segura, mas também uma sociedade mais protegida dos riscos que emergem do mundo digital.