STF volta a julgar responsabilidade de redes sociais por posts de usuários
Corte analisa validade do art. 19 do marco civil da internet.
Da Redação
quarta-feira, 4 de junho de 2025
Atualizado em 5 de junho de 2025 11:22
Nesta quarta-feira, 4, o STF, em sessão plenária, retomou o julgamento que definirá se redes sociais só podem ser responsabilizadas civilmente por conteúdos ilícitos publicados por usuários mediante prévia ordem judicial de remoção.
Ministro André Mendonça começou a apresentar voto-vista, mas ainda não concluiu a manifestação.
Devido ao adiantado da hora, a sessão foi suspensa e o julgamento seguirá na quinta-feira, 5.
Entenda
A discussão gira em torno da constitucionalidade do art. 19 do marco civil da internet (lei 12.965/14), analisada no âmbito do RE 1.037.396 (Tema 987 da repercussão geral).
O dispositivo estabelece que provedores de aplicações na internet só respondem civilmente por danos decorrentes de conteúdos de terceiros se, após ordem judicial específica, deixarem de tomar providências para sua retirada.
O ponto central é se essa regra se sustenta diante de casos de ilicitude manifesta, como discursos de ódio, deepfakes, incitação à violência ou uso indevido de imagem. Nessas situações, o STF avalia se as plataformas podem ser responsabilizadas mesmo sem provocação judicial.
Também está em análise o RE 1.057.258 (Tema 533), que trata da responsabilidade de provedores por conteúdos gerados por terceiros e da possibilidade de remoção extrajudicial de publicações que violem direitos de personalidade.
Panorama atual
Três ministros já votaram. Os ministros Dias Toffoli e Luiz Fux defenderam a inconstitucionalidade do artigo 19, por entenderem que, diante da evidência da ilicitude, as plataformas devem ser responsabilizadas independentemente de decisão judicial.
O presidente do STF, ministro Luís Roberto Barroso, apresentou posição intermediária. S. Exa. reconhece a inconstitucionalidade parcial do dispositivo, mas propõe ajustes que ampliem as exceções já previstas no art. 21 do marco civil.
Casos concretos
No RE 1.037.396, de relatoria do ministro Dias Toffoli, uma mulher ajuizou ação após descobrir que um perfil falso no Facebook usava seu nome e fotos para ofender terceiros. Alegando que sua vida "tornou-se um inferno", pleiteou a exclusão da conta e indenização por danos morais.
O Juizado Especial Cível de Capivari/SP determinou a exclusão do perfil e fornecimento do IP, mas negou a indenização com base no art. 19 do marco civil. A autora recorreu, e a turma recursal fixou indenização de R$ 10 mil, por entender que exigir ordem judicial para remover perfis falsos desconsidera o CDC e a CF.
O Facebook recorreu ao STF, defendendo a constitucionalidade do art. 19, entendendo que a norma protege a liberdade de expressão e evita censura privada.
Já no RE 1.057.258, de relatoria do ministro Luiz Fux, discute-se a responsabilidade da Google pela manutenção de uma página ofensiva no Orkut.
O caso teve origem em ação ajuizada por usuária ofendida por uma comunidade intitulada "Eu odeio a Liandra". Mesmo após notificação, a empresa não removeu o conteúdo, sendo condenada ao pagamento de R$ 10 mil por danos morais. A decisão foi mantida pela turma recursal de Belo Horizonte/MG, e o recurso chegou ao STF.
Esclarecimentos
Na abertura da sessão plenária desta quarta-feira, o presidente do STF, ministro Luís Roberto Barroso, destacou que a Corte não está legislando nem regulando plataformas digitais, mas apenas analisando casos concretos sobre indenizações por danos causados por conteúdos publicados na internet.
Barroso esclareceu que, na ausência de legislação específica, o Judiciário fixa critérios provisórios até que o Congresso delibere sobre o tema, e rebateu acusações de censura, enfatizando a importância de valores como verdade, civilidade e integridade no debate público.
O ministro defendeu a polarização ideológica legítima, mas alertou contra a prática de ódio e desinformação, frisando que, em tempos de divisões ideológicas, a integridade e a busca pela verdade devem prevalecer sobre a ideologia. "[...] no mundo atual, nós precisamos fazer com que mentir volte a ser errado de novo", afirmou.
Assista:
Voto-vista
Ao proferir voto, nesta tarde, ministro André Mendonça ressaltou a importância das plataformas digitais para a democracia e defendeu uma leitura constitucional que preserve a liberdade de expressão, ainda que reconheça a possibilidade de responsabilização em casos extremos.
Mendonça destacou que as novas tecnologias, apesar dos riscos de uso inadequado, não são por si mesmas prejudiciais ao regime democrático. Pelo contrário, historicamente foram consideradas instrumentos de promoção da democracia digital, ao permitirem maior participação e pluralidade de vozes no debate público.
"Isso ampliou a pluralidade de opiniões e de alternativas políticas disponíveis, bem como a oferta de recursos políticos e organizações que representam no discurso público."
O ministro reconheceu que há debate acadêmico sobre os efeitos positivos e negativos das redes, mas enfatizou que se trata de um "novo ecossistema de comunicação social, inegavelmente disruptivo". Em sua visão, o desafio jurídico é equilibrar esse novo cenário com os princípios constitucionais.
Assista ao trecho:
Ao tratar da liberdade de expressão, Mendonça afirmou que ela ocupa posição preferencial no sistema de direitos fundamentais, por ser essencial à democracia e à soberania popular. "Apenas numa sociedade em que o cidadão seja livre para expressar sua vontade, sem receio de reprimenda estatal, se pode falar em soberania popular", pontuou.
S. Exa. ainda recordou que a lei 14.197/21, que revogou a antiga lei de segurança nacional, deixou claro que manifestações críticas aos poderes, atividades jornalísticas e protestos não configuram crimes contra o Estado democrático de direito.
O ministro defendeu que a verdadeira tolerância protege inclusive ideias consideradas idiotas ou inaceitáveis, ressaltando:
"Trata-se, como dito, de ser intolerante com a ideia, não com a pessoa que a veicula."
Veja:
Abordando diretamente as críticas às instituições, afirmou que "a Justiça Eleitoral brasileira é confiável e digna de orgulho", mas reconheceu como legítimo o direito do cidadão de duvidar ou questionar.
"No Brasil, é lícito duvidar da existência de Deus, de que o homem foi à Lua e também das instituições", disse.
Contudo, alertou que o discurso que apresentar risco claro e iminente à integridade de terceiros pode justificar responsabilização do emissor.
Assista ao momento:
AInda, chamou a atenção para os riscos de se enfrentar a desinformação exclusivamente por meio de medidas jurídicas, advertindo que isso pode agravar a já existente crise de confiança social.
Segundo Mendonça, embora discursos mentirosos sejam eticamente reprováveis, a censura só encontra respaldo jurídico quando houver risco concreto e imediato de dano.
Mendonça destacou que a arena pública, ainda que desordenada, é espaço legítimo de emergência de novos atores políticos, os quais desafiam o status quo e enriquecem o debate democrático.
Assista:
Ao final fez crítica à judicialização excessiva de temas moralmente sensíveis e defendeu que a regulação de conteúdos digitais deve partir do Congresso Nacional, por ser o Poder que detém a legitimidade popular direta.
Para o ministro, a separação de Poderes deve ser respeitada, e a supremacia da CF não pode ser confundida com a supremacia do Supremo sobre os demais Poderes.
A superação dos desafios impostos pelas fake news, concluiu, exige equilíbrio institucional, diálogo e cooperação entre os Poderes da República.
Confira:
- Para ler mais detalhes do voto do ministro, clique aqui.
Pela inconstitucionalidade - I
Em dezembro de 2024, o relator Dias Toffoli votou pela declaração de inconstitucionalidade do art. 19. Para S. Exa., a norma concede imunidade excessiva às plataformas, favorecendo a disseminação de conteúdos nocivos. Defendeu que o mesmo rigor jurídico aplicado ao mundo físico deve prevalecer no ambiente digital.
Toffoli propôs a responsabilização objetiva em casos graves, como perfis falsos ou ameaças à integridade eleitoral, admitindo notificações extrajudiciais como suficientes.
Ressalvou, porém, que e-mails, ferramentas de reuniões online e blogs jornalísticos devem seguir regimes próprios - no caso da imprensa, a lei do direito de resposta (lei 13.188/15).
Também defendeu a possibilidade de aplicação retroativa da responsabilização, em nome da proteção de direitos fundamentais.
O ministro sugeriu a seguinte tese:
"I. É inconstitucional o art. 19, caput, e o § 1º do marco civil da internet, sendo inconstitucionais, por arrastamento, os demais parágrafos do art. 19.
II. Como regra, o provedor de aplicações de internet será responsabilizado civilmente nos termos do art. 21, pelos danos decorrentes de conteúdos gerados por terceiros, inclusive na hipótese de danos à intimidade, à vida privada, à honra e à imagem, quando notificado pelo ofendido ou seu representante legal, preferencialmente pelos canais de atendimento, deixar de promover em prazo razoável as providências cabíveis, ressalvadas as disposições da legislação eleitoral e os atos normativos do Tribunal Superior Eleitoral.
III. O provedor de aplicações de internet responde civilmente de forma objetiva, e independentemente de notificação pelos danos decorrentes de conteúdos gerados por terceiros, nas seguintes hipóteses:
quando recomendem ou impulsionem de forma remunerada, ou não, os conteúdos;
quando se tratar de conta inautêntica;
quando se tratar de direitos do autor e conexos; e
quando configurarem práticas previstas em rol taxativo.
IV. Os provedores que funcionarem como marketplaces, respondem objetiva e solidariamente com o respectivo anunciante nas hipóteses de anúncios de produtos de venda proibida ou sem certificação, ou homologação pelos órgãos competentes."
Toffoli ainda previu um conjunto de deveres anexos, de transferência, de devido processo e outras providências.
E por fim, afirmou que os provedores de aplicações de internet com sede no exterior e atuação no Brasil, devem constituir representante no país.
Pela inconstitucionalidade - II
Na mesma linha, Luiz Fux considerou o art. 19 inconstitucional, criticando o modelo que condiciona a responsabilidade à ordem judicial específica.
Ressaltou que, diferentemente da imprensa tradicional, as plataformas não se submetem a mecanismos de verificação prévia, o que favorece a propagação de danos à dignidade humana.
Fux defendeu que, diante da evidência da ilicitude ou após notificação idônea, as plataformas devem ser responsabilizadas. Em casos como racismo, pedofilia ou apologia ao golpe de Estado, sustentou que as empresas têm o dever de monitoramento ativo. Já em relação a conteúdos que ferem honra ou privacidade, sugeriu responsabilização após notificação fundamentada.
Além disso, afirmou que, quando o conteúdo ofensivo é impulsionado por pagamento, presume-se o conhecimento da ilicitude por parte da plataforma.
O ministro sugeriu a seguinte tese:
"I. A disposição do art. 19 do marco civil da internet não exclui a possibilidade de responsabilização civil de provedores de aplicações de internet por conteúdos gerados por terceiros nos casos em que, tendo ciência inequívoca do cometimento de atos ilícitos, seja por quanto evidente, seja porque devidamente informados por qualquer meio idôneo, não procederem à remoção imediata do conteúdo.
II. Considera-se evidentemente ilícito o conteúdo gerado por terceiro que veicule discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e apologia ao golpe de Estado. Nestas hipóteses específicas há para as empresas provedoras um dever de monitoramento ativo com vistas à preservação eficiente do Estado Democrático de Direito.
III. Nos casos de postagens ofensivas à honra, à imagem e à privacidade de particulares, a ciência inequívoca da ilicitude por parte das empresas provedoras necessária à responsabilização civil, dependerá de sua prévia e fundamentada notificação pelos interessados, que poderá ser realizada por qualquer meio idôneo, cabendo às plataformas digitais o dever de disponibilizar meios eletrônicos eficientes, funcionais e sigilosos para o recebimento de denúncias e reclamações de seus usuários que se sintam lesados.
IV. É presumido de modo absoluto o efetivo conhecimento da ilicitude do conteúdo produzido por terceiros, por parte da empresa provedora de aplicações de internet, nos casos de postagens onerosamente impulsionadas."
Posição intermediária
Ministro Luís Roberto Barroso propôs uma solução de equilíbrio. Embora reconheça a inconstitucionalidade parcial do art. 19, sugeriu ajustes que mantenham a regra geral com exceções ampliadas.
Propôs um sistema dual: de um lado, responsabilidade subjetiva para conteúdos gerados por terceiros; de outro, dever de cuidado em relação a riscos sistêmicos, como pornografia infantil, tráfico de pessoas e terrorismo.
Para crimes contra a honra, defendeu a exigência de ordem judicial como salvaguarda à liberdade de expressão. Para os demais ilícitos, admitiu a remoção com base em notificação privada.
Barroso também apelou ao Congresso Nacional para aprovar um marco regulatório que discipline a mitigação de riscos sistêmicos, com exigência de auditorias, relatórios e supervisão por órgão autônomo.
Enquanto isso não ocorre, sugeriu que as plataformas publiquem relatórios anuais de transparência, nos moldes do Digital Services Act europeu.
Ao final, sugeriu a seguinte tese:
"I. O art. 19 é só parcialmente inconstitucional. A exigência de ordem judicial para remoção de conteúdo continua a valer, mas é insuficiente.
II. Nos casos de crime, exceto de crimes contra a honra, notificação extrajudicial, nos casos de crime, exceto de crimes contra a honra, deve ser suficiente para a remoção de conteúdo.
III. Nos casos de crimes contra a honra e de ilícitos civis em geral, continua a se aplicar a exigência de ordem judicial para a remoção.
IV. As empresas têm o dever de cuidado de evitar que determinados conteúdos cheguem ao espaço público, independentemente de ordem judicial ou de notificação privada: pornografia infantil e crimes graves contra crianças e adolescentes, induzimento, instigação ou auxílio a suicídio ou automutilação, tráfico de pessoas, atos de terrorismo, abolição violenta do Estado Democrático de Direito e golpe de Estado.
V. Nos casos referidos no item IV acima, a responsabilização pressupõe uma falha sistêmica e não meramente a ausência de remoção de um conteúdo específico.
VI. Nos casos de anúncio ou impulsionamento pago, o conhecimento efetivo do conteúdo ilícito é presumido desde a aprovação da publicidade. Caso o provedor não adote providências em tempo razoável poderá ser responsabilizado ainda que não tenha havido notificação privada."
Por fim, previu deveres anexos como canal de comunicação, devido processo e relatórios de transparência.
- Processos: RE 1.037.396 e RE 1.057.258