STF: Para Mendonça, big techs não devem responder por conteúdo de usuários
Segundo ministro, plataformas devem ser avaliadas pela estrutura de governança e não pelo conteúdo individual gerado por usuários.
Da Redação
quinta-feira, 5 de junho de 2025
Atualizado às 19:54
Na sessão plenária no STF nesta quinta-feira, 5, ministro André Mendonça terminou de proferir voto em ação que trata da responsabilidade das plataformas digitais por conteúdos gerados pelos usuários.
O ministro divergiu dos votos proferidos até então, e entendeu pela validade do art. 19 do marco civil da internet. Para S. Exa., redes sociais só devem ser responsabilizadas civilmente se não removerem o conteúdo após decisão judicial.
Confira destaques da manifestação desta tarde.
Distinções
Ao abrir sua manifestação, o ministro ressaltou a necessidade de atualização do paradigma jurídico-dogmático que rege a liberdade de expressão, a fim de compatibilizá-lo com as especificidades da era digital.
S. Exa. defendeu a manutenção da proteção fundamental da liberdade de expressão, ao mesmo tempo, em que destacou a complexidade dos ambientes digitais, que exigem abordagens regulatórias diferenciadas.
O voto pontuou distinções conceituais importantes entre os diversos tipos de provedores de serviços de internet.
Conforme previsto no marco civil, diferenciam-se os provedores de conexão dos de aplicação. Dentro destes, destacou que as comunicações privadas - como as realizadas entre familiares ou amigos por aplicativos de mensagens - não devem ser objeto da discussão sobre responsabilidade de plataformas, por integrarem a esfera privada, e não pública, da comunicação digital.
Na sequência, Mendonça passou à análise das aplicações de internet com função coletiva ou supraindividual, como marketplaces (a exemplo de Mercado Livre, Amazon e Casas Bahia), redes sociais e buscadores online.
Apontou que, embora relevantes, marketplaces possuem peculiaridades importantes no que se refere à moderação de conteúdo. Citou dados fornecidos pelo Mercado Livre, segundo os quais 96,4% dos conteúdos removidos são detectados internamente, o que demonstra postura proativa da plataforma.
Comparativo internacional e impactos dos algoritmos
Em paralelo, o ministro citou as legislações europeias - a Digital Services Act e a Digital Markets Act - que estabelecem um regime de responsabilidade diferenciado, considerando o tipo e o impacto do serviço digital prestado. Essa abordagem segmentada, segundo Mendonça, é crucial para uma regulação eficaz e proporcional.
Ao tratar especificamente das redes sociais, S. Exa. propôs que a responsabilidade das plataformas deve considerar não apenas o conteúdo em si, mas também seu alcance, público-alvo e grau de interferência algorítmica na sua disseminação.
Defendeu que conteúdos impulsionados por algoritmos da própria plataforma não podem ser tratados da mesma forma que aqueles buscados espontaneamente pelos usuários.
Nesse contexto, mencionou a escala de Samuel Fonteles, que classifica os emissores de discurso público - de autoridades públicas a cidadãos comuns -, para defender maior proteção constitucional a falas de agentes públicos, como membros do governo e parlamentares, dada sua relevância democrática.
Mendonça reforçou que a responsabilização das plataformas deve ser analisada caso a caso, especialmente quando estas impulsionam conteúdos mediante algoritmos ou publicidade paga.
Para tanto, defendeu um escopo delimitado de aplicação do art. 19 do marco civil, com enfoque na análise da constitucionalidade dentro de contextos específicos e não de forma genérica.
Compliance como modelo regulatório
O ministro propôs a adoção de modelos regulatórios baseados em compliance - ou autorregulação regulada -, com foco em soluções preventivas e cooperativas.
Conforme explicou, esse modelo permite que as próprias empresas elaborem códigos internos de conduta, mecanismos de controle e monitoramento, sujeitos à fiscalização estatal.
Para ser eficaz, um programa de compliance deve conter: análise de riscos, código de conduta, treinamentos, canais de denúncia, auditoria e reavaliação contínua.
Quando adequadamente implementado, pode até mesmo excluir a responsabilização da empresa por atos de terceiros, desde que comprovada a ausência de negligência e a existência de estrutura de governança robusta.
Mendonça defendeu que o foco da responsabilização não deve recair sobre conteúdos pontuais, mas sim sobre os procedimentos adotados pelas plataformas para promover um ambiente digital seguro, plural e compatível com os direitos fundamentais.
Veja o trecho:
Dados de atuação espontânea das plataformas
Para sustentar sua argumentação, o ministro apresentou dados que indicam ação proativa das plataformas digitais na remoção de conteúdos que violam suas próprias diretrizes. Segundo relatórios recentes:
- A Meta removeu 2,9 milhões de conteúdos no Brasil entre agosto e outubro de 2024;
- O Google suprimiu mais de 56 milhões de vídeos e 3,2 milhões de canais no YouTube entre abril e junho;
- O TikTok excluiu 6,4 milhões de vídeos no Brasil apenas no primeiro semestre de 2024, sendo 99,2% removidos de forma proativa.
Para o ministro, esses números demonstram que a maioria das remoções ocorre sem qualquer denúncia ou decisão judicial, o que reforça a ideia de que os casos que exigem intervenção externa são excepcionais.
Defendeu, assim, uma abordagem baseada em obrigações de meio - ou seja, nos esforços empreendidos pela plataforma para prevenir danos - e não meramente em resultados.
Críticas à moderação algorítmica
Parte significativa do voto foi dedicada à crítica à moderação automatizada de conteúdo e à defesa do papel exclusivo do Poder Judiciário na ponderação de valores constitucionais.
Mendonça afirmou que algoritmos não devem substituir juízos humanos, especialmente em temas controversos de liberdade de expressão.
S. Exa. alertou que transferir às plataformas a tarefa de moderação ampla e automatizada poderia gerar riscos graves à privacidade e à liberdade dos usuários.
Mencionou o potencial uso discriminatório de perfis de comportamento para antecipar condutas ilícitas, o que considerou uma versão tecnologicamente atualizada da ultrapassada teoria lombrosiana.
Apresentou ainda casos concretos de moderação indevida, relatados pelo Idec - Instituto Brasileiro de Defesa do Consumidor, como a exclusão de vídeos educativos sobre câncer de mama ou postagens de artistas e minorias, ressaltando o risco de chilling effects sobre o debate público.
Assista:
Wikipédia e os riscos da centralização
Em um alerta adicional, Mendonça destacou que eventual declaração de inconstitucionalidade do art. 19 poderia comprometer plataformas colaborativas como a Wikipédia.
Segundo a Wikimedia Foundation, a obrigação de remoção imediata de conteúdos mediante simples notificação extrajudicial desestabilizaria o modelo descentralizado de curadoria, baseado na comunidade de editores voluntários. Para o ministro, esse formato de autorregulação é não só legítimo, como essencial à diversidade informacional.
Deveres procedimentais e boa governança
Mendonça defendeu que a responsabilização das plataformas digitais deve estar ancorada em deveres procedimentais e boas práticas de governança, não em uma lógica punitiva ou de imunidade irrestrita.
Enfatizou a necessidade de canais de denúncia acessíveis e eficazes, inclusive anônimos - elemento central da doutrina de compliance.
S. Exa. também propôs que, nos casos de remoção sem ordem judicial, o processo seja minimamente estruturado: com fundamentação clara, preferência por decisão humana, uso excepcional de inteligência artificial e direito ao contraditório com resposta tempestiva.
Para Mendonça, esse modelo favorece uma regulação voltada à integridade sistêmica das plataformas, preservando a liberdade de expressão e promovendo um ambiente digital seguro, responsável e democrático.
Perfis robôs
No caso concreto que deu origem ao Tema 987, o ministro exemplificou como a decisão de 1ª instância corretamente afastou a responsabilidade da rede social, determinando a identificação dos autores da manifestação ofensiva, para que a vítima pudesse buscar a devida reparação.
A reversão da decisão em instância recursal, ao transferir a responsabilidade para a plataforma e afastar a identificação dos reais ofensores, foi criticada como contrária à lógica da responsabilização civil prevista na legislação brasileira.
Para Mendonça, o art. 19 reflete a regra geral do CC de que a solidariedade não se presume e só pode ser atribuída se prevista em lei - o que, nesse caso, foi expressamente afastado pelo legislador.
No entanto, reconheceu que há situações específicas em que a plataforma pode ser responsabilizada diretamente, como perfis robôs, em que não há liberdade de expressão a ser protegida, e sim falha na prestação do serviço.
Por fim, mencionou jurisprudência do STJ que reforça a exigência de vínculo causal e atuação diligente das plataformas. Caso não adotem medidas razoáveis para identificar os reais autores de conteúdos ilícitos, podem sim ser responsabilizadas, sempre com análise baseada nas circunstâncias do caso concreto.
Segundo Mendonça, o STJ tem mantido jurisprudência estável nesse sentido, ajustando-se apenas para incorporar os marcos temporais trazidos pela entrada em vigor do Marco Civil da Internet.
Assista:
Supressão de perfis
Com base no relatório da ONU (AHRC 17/27), de autoria do relator Frank LaRue, Mendonça afirmou que o bloqueio total ao acesso à internet, mesmo que motivado por infrações, é medida desproporcional e violadora do Pacto Internacional de Direitos Civis e Políticos.
Segundo o ministro, o simples fato de um perfil ser vinculado a um indivíduo identificável exige maior cautela.
A remoção prévia, sem previsão legal e sem o devido processo legal, representaria grave violação a direitos e garantias fundamentais. Citando julgamento da ADIn 7.261, de relatoria do ministro Fachin, Mendonça defendeu que os direitos digitais - assim como os offline - dependem da manutenção da presença online, sendo o perfil em rede social o "verdadeiro avatar do indivíduo", projeção de sua personalidade digital.
Para S. Exa., suspender perfis ou bloquear contas de forma definitiva ou temporária, sem respaldo em lei aprovada pelo Legislativo, configura censura prévia e interfere na essência do direito à livre manifestação.
O ministro propôs uma analogia com o mundo físico: mesmo quando há excesso ou abuso no exercício do direito de expressão, não se exclui a pessoa do tecido social. O combate ao ilícito deve se dar pela responsabilização posterior da conduta, e não pela exclusão do sujeito.
Nesse sentido, Mendonça defendeu que a supressão de perfis, para ser legítima, deve estar restrita a casos extremos e objetivos - como perfis robôs, comprovadamente falsos ou criados com a finalidade específica de cometer crimes.
Em qualquer outra hipótese, a exclusão preventiva sem processo judicial caracteriza censura, viola o devido processo legal e afronta os princípios do direito sancionador, que exigem que se julgue a conduta, não a pessoa.
Veja:
Tese
Ao final, o ministro sugeriu a seguinte tese de julgamento:
"I. Serviços de mensageria privada não podem ser equiparados à mídia social. Em relação a tais aplicações de internet, prevalece a proteção à intimidade, vida privada, sigilo das comunicações e proteção de dados. Portanto, não há que se falar em dever de monitoramento ou autorregulação na espécie.
II. É inconstitucional a remoção ou a suspensão de perfis de usuários, exceto quando [a] comprovadamente falsos - seja porque (i) relacionados a pessoa que efetivamente existe, mas denuncia, com a devida comprovação, que não o utiliza ou criou; ou (ii) relacionados a pessoa que sequer existe fora do universo digital ("perfil robô"); ou [b] cujo objeto do perfil seja a prática de atividade em si criminosa.
III. As plataformas em geral, tais como mecanismos de busca, marketplaces etc., tem o dever de promover a identificação do usuário violador de direito de terceiro (art. 15 c/c art. 22 do MCI). Observado o cumprimento da referida exigência, o particular diretamente responsável pela conduta ofensiva é quem deve ser efetivamente responsabilizado via ação judicial contra si promovida.
IV. Nos casos em que admitida a remoção de conteúdo sem ordem judicial (por expressa determinação legal ou conforme previsto nos Termos e Condições de Uso das plataformas), é preciso assegurar a observância de protocolos que assegurem um procedimento devido, capaz de garantir a possibilidade do usuário [a] ter acesso às motivações da decisão que ensejou a exclusão, [b] que essa exclusão seja feita preferencialmente por humano [uso excepcional de robôs e inteligência artificial no comando de exclusão]; [c] possa recorrer da decisão de moderação, [d] obtenha resposta tempestiva e adequada da plataforma, dentre outros aspectos inerentes aos princípios processuais fundamentais.
V. Excetuados os casos expressamente autorizados em lei, as plataformas digitais não podem ser responsabilizadas pela ausência de remoção de conteúdo veiculado por terceiro, ainda que posteriormente qualificado como ofensivo pelo Poder Judiciário, aí incluídos os ilícitos relacionados à manifestação de opinião ou do pensamento.
VI. Há possibilidade de responsabilização, por conduta omissiva ou comissiva própria, pelo descumprimento dos deveres procedimentais que lhe são impostos pela legislação, aí incluída [a] a obrigação de aplicação isonômica, em relação a todos os seus usuários, das regras de conduta estabelecidas pelos seus Termos e Condições de Uso, os quais devem guardar conformidade com as disposições do Código de Defesa do Consumidor e com a legislação em geral; e [b] a adoção de mecanismos de segurança digital aptos a evitar que as plataformas sejam utilizadas para a prática de condutas ilícitas.
VII. Em observância ao devido processo legal, a decisão judicial que determinar a remoção de conteúdo [a] deve apresentar fundamentação específica, e, [b] ainda que proferida em processo judicial sigiloso, deve ser acessível à plataforma responsável pelo seu cumprimento, facultada a possibilidade de impugnação."
Veja o momento da propositura da tese:
- Leia a íntegra do voto.