Para Zanin, redes sociais podem responder por posts independente de ordem judicial
Ministro também propôs modulação para aplicar nova interpretação apenas a fatos futuros.
Da Redação
quarta-feira, 11 de junho de 2025
Atualizado às 19:13
Nesta quarta-feira, 11, o plenário do STF retomou julgamento que discute a constitucionalidade do art. 19 do marco civil da internet (lei 12.965/14), dispositivo que condiciona a responsabilidade civil de plataformas digitais à existência de ordem judicial prévia para remoção de conteúdo gerado por terceiros.
A análise ocorre no âmbito de dois recursos extraordinários com repercussão geral reconhecida - RE 1.037.396 (Tema 987) e RE 1.057.258 (Tema 533).
Na sessão desta tarde, ministro Cristiano Zanin apresentou voto no qual reconhece a inconstitucionalidade parcial - ou a interpretação conforme a CF - do art. 19, por entender que a exigência de ordem judicial para remoção de conteúdo configura proteção insuficiente frente à violação de direitos fundamentais, especialmente diante da disseminação de conteúdos ilícitos nas plataformas.
Segundo o ministro, as premissas que fundamentaram o dispositivo - como a confiança na autorregulação das plataformas, a atuação presumidamente neutra dos provedores e a exclusividade do Judiciário na análise da ilicitude - não se comprovaram na prática.
Diante desse cenário, Zanin propôs modelo de responsabilidade diferenciada, que considera o tipo de provedor e o grau de ilicitude do conteúdo. Para conteúdos manifestamente ilícitos, seria suficiente a notificação extrajudicial (nos termos do art. 21); já para situações mais complexas ou que envolvam crimes contra a honra, exigiria-se a ordem judicial (conforme art. 19).
O voto também contempla deveres adicionais de cuidado, regras procedimentais para moderação de conteúdo e propõe a modulação dos efeitos da decisão, restringindo a nova interpretação aos fatos ocorridos após o julgamento.
O que está em debate?
O art. 19 do marco civil prevê que os provedores de aplicações só respondem por danos se, após ordem judicial específica, não retirarem o conteúdo apontado como ilícito.
A controvérsia está na constitucionalidade dessa exigência, especialmente diante de casos de ilicitude manifesta - como discursos de ódio, deepfakes ou ameaças à integridade física, ou moral.
O STF analisa se esse dispositivo viola a CF por restringir indevidamente o direito à reparação de danos e favorecer a impunidade em ambientes digitais. Também se avalia se determinadas situações justificam a responsabilização direta das plataformas, mesmo sem ordem judicial, como em casos de contas falsas ou impulsionamento pago de conteúdo ofensivo.
Casos concretos
Os dois processos em análise envolvem ofensas praticadas em redes sociais:
No RE 1.037.396, o Facebook foi acionado por permitir a existência de perfil falso com ofensas a terceiros. A usuária obteve indenização na instância inferior, e a empresa recorreu ao STF defendendo a constitucionalidade do art. 19.
No RE 1.057.258, discute-se a responsabilidade do Google por manter ativa uma página ofensiva no extinto Orkut. A empresa foi condenada e também levou o caso ao Supremo.
Proteção insuficiente
Nesta tarde, ao proferir voto, ministro Cristiano Zanin entendeu pela parcial inconstitucionalidade do art. 19 do marco civil da internet, ou a interpretação conforme à CF, ao considerar que o dispositivo - ao condicionar a responsabilidade de provedores de aplicação à existência de ordem judicial - resulta em proteção insuficiente frente aos direitos fundamentais violados pela disseminação de conteúdos ilícitos nas plataformas digitais.
Segundo o ministro, o artigo foi elaborado com base em premissas que não se confirmaram com o tempo. Entre elas, a ideia de que a autorregulação das plataformas seria suficiente para conter abusos; que caberia exclusivamente ao Judiciário decidir sobre a ilicitude dos conteúdos; e que os provedores atuariam com neutralidade.
"A prognose legislativa de promoção legítima da liberdade de expressão não se confirmou empiricamente", apontou Zanin.
Ao contrário, o modelo atual teria ampliado a circulação de conteúdos danosos, com consequências severas para os direitos individuais e coletivos - e para o próprio Estado Democrático de Direito.
O ministro destacou ainda que as plataformas exercem influência ativa no que é disseminado, seja por curadoria algorítmica, seja por políticas de engajamento e publicidade. "O algoritmo determina quais informações o usuário terá acesso e, com isso, controla o fluxo de informações", disse.
Zanin reforçou que a liberdade de expressão, embora central ao ordenamento constitucional, não é absoluta.
"A própria Constituição prevê expressamente que a liberdade de expressão pode sofrer restrições se os demais valores constitucionais estiverem em perigo", afirmou.
Para o ministro, o art. 19, na literalidade, viola o princípio da proporcionalidade e a vedação à proteção insuficiente, por não assegurar a devida proteção às vítimas.
"É incompatível com a atual realidade do modelo de negócio de muitos provedores, que fomenta a perpetuação de danos e desinformação", avaliou.
Zanin frisou que o STF não está impondo um novo modelo regulatório, mas compatibilizando a norma com a CF. Para isso, sugeriu, como alternativa, a interpretação conforme ou o reconhecimento da inconstitucionalidade parcial, à semelhança do que propuseram ministros como Flávio Dino.
Além disso, ponderou que o art. 19 não se limita às plataformas de redes sociais, abrangendo também mensagerias e outros serviços. Por isso, recomendou cuidado para que a tese fixada não extrapole os limites da controvérsia e atinja situações não problematizadas no julgamento.
"Temos que fazer uma restrição para não irmos além daquilo que o artigo 19 protege de forma insuficiente", concluiu.
Zanin propôs um modelo de responsabilidade subjetiva diferenciada conforme o tipo de provedor e o grau de ilicitude do conteúdo:
- Responsabilidade após notificação (art. 21): Para provedores de aplicação ativos, e quando o conteúdo for evidentemente criminoso ou ilícito;
- Responsabilidade após decisão judicial (art. 19): Para provedores neutros, veículos de comunicação e nos casos em que houver dúvida razoável sobre a ilicitude do conteúdo.
Com isso, busca-se preservar a liberdade de expressão e a segurança jurídica, ao mesmo tempo em que se impõe responsabilização proporcional ao papel desempenhado por cada agente na cadeia da informação.
O ministro também aderiu integralmente aos deveres de cuidado adicionais delineados no voto do relator, ministro Dias Toffoli, destacando que as plataformas digitais, diante de seu impacto crescente no debate público e nos direitos fundamentais, devem assumir postura mais diligente em relação ao conteúdo que hospedam e impulsionam.
"Os provedores devem prevenir e mitigar riscos sistêmicos criados ou potencializados por suas atividades, de forma a não comprometer bens jurídicos essenciais", declarou.
O voto reconhece, ainda, a necessidade de um procedimento específico a ser adotado pelas plataformas, com base nos deveres de cuidado, de modo a viabilizar respostas mais rápidas e eficazes diante de conteúdos potencialmente danosos.
Também votou pela modulação dos efeitos da decisão para que a nova interpretação só seja aplicada a fatos ocorridos após a data do julgamento, preservando decisões anteriores com base no art. 19 em sua redação original.
No caso concreto relatado por Toffoli, votou por prover o recurso e afastar a condenação do Facebook por danos morais. Da mesma forma, no caso relatado por Fux, o ministro votou por dar provimento ao recurso extraordinário para afastar a condenação por danos morais. Já que se tratavam de fatos anteriores à proposta de modulação de efeitos.
Confira parte do voto:
Veja a proposta de tese:
"1. O art. 19 da Lei nº 12.965/2014 (Marco Civil da Internet), que exige ordem judicial específica para a responsabilização civil de provedor de aplicações de internet por danos decorrentes de conteúdo gerado por terceiros, é parcialmente inconstitucional. Há um estado de omissão parcial que decorre do fato de que a regra geral do art. 19 não confere proteção suficiente a bens jurídicos constitucionais de alta relevância (proteção de direitos fundamentais e da democracia).
2. Enquanto não sobrevier legislação, em interpretação conforme à Constituição, a responsabilização civil de provedores de aplicações de internet deve se sujeitar ao seguinte regime, ressalvadas as disposições específicas da legislação eleitoral e os atos normativos expedidos pelo TSE:
2.1 O regime de decisão judicial e retirada do art. 19 do Marco Civil da Internet aplica-se (i) aos provedores de aplicação intermediários de conteúdo gerado por terceiros considerados neutros; (ii) e, aos provedores de aplicação ativos, apenas nos casos de publicação, pelo usuário, de conteúdo não manifestamente criminoso.
2.2. O regime de notificação extrajudicial e retirada, do art. 21 do MCI, deve ser estendido aos provedores de aplicação intermediários que atuam ativamente na promoção e disseminação de conteúdo e, após serem notificados, deixam de remover conteúdo manifestamente criminoso. Considera-se observado o dever de cuidado quando, após a notificação, o provedor de aplicação executa mecanismos efetivos de prevenção e controle para checar a veracidade das alegações e mitigar danos. Caso se trate de conteúdo de ilicitude duvidosa ou que dependa de juízos de valor para aferir a sua ilicitude, considera-se cumprido o dever de cuidado se, adotados tais mecanismos, o provedor é capaz de demonstrar que não há evidente caráter ilícito do conteúdo e que deverá prevalecer, então, a livre manifestação do pensamento. Quando houver elementos objetivos que demonstrem que o conteúdo é ilícito, surge para os provedores de aplicação o dever de agir para excluí-lo. Esse dever abrange a publicação de conteúdos comprovadamente fraudulentos, como perfis falsos ou invasões de contas.
2.3. No caso de anúncios e impulsionamentos, presume-se o conhecimento do ilícito desde a aprovação da publicidade pela plataforma, sendo possível a responsabilização independente de notificação, salvo quando a plataforma comprove que atuou diligentemente e em tempo razoável para indisponibilizar o conteúdo. Também haverá presunção relativa de conhecimento, a ensejar a responsabilização civil, nos casos de danos provocados por chatbots (robôs).
3. A responsabilidade civil nesses regimes ésubjetiva. Em todo caso, os provedores não poderão ser responsabilizados civilmente quando houver dúvida razoável sobre a ilicitude dos conteúdos.
4. Estão excluídos do âmbito de aplicação do regime específico previsto nos arts. 18 a 21 do Marco Civil da Internet os provedores de aplicação intermediários de fornecimento de produtos e serviços (Marketplaces e assemelhados).
5. Os provedores de aplicações de internet deverão manter um sistema de notificações, definir um devido processo e publicar relatórios anuais de transparência em relação a notificações extrajudiciais e anúncios e impulsionamento, além de promover ações de educação digital.
6. Além disso, os provedores de aplicações de internet estão submetidos a um dever de cuidado de que decorre a obrigação de prevenir e mitigar riscos sistêmicos criados ou potencializados por suas atividades, a ser cumprido por meio de mecanismos fidedignos de avaliação do conteúdo que conjuguem atos humanos e agentes de inteligência artificial. As plataformas devem atuar proativamente para que estejam livres dos seguintes conteúdos extraordinariamente nocivos:
(i) pornografia infantil e crimes graves contra vulneráveis;
(ii) induzimento, instigação ou auxílio a suicídio ou a automutilação;
(iii) tráfico de pessoas;
(iv) atos de terrorismo;
(v) abolição violenta do Estado Democrático de Direito e golpe de Estado.
A responsabilização nesses casos pressupõe uma falha sistêmica, e não meramente a ausência de remoção de um conteúdo.
7. Em casos de remoção de conteúdo pela plataforma em razão do cumprimento dos deveres inerentes ao item 6, o autor do conteúdo poderá requerer judicialmente o seu restabelecimento, mediante demonstração da ausência de ilicitude. Ainda que o conteúdo seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor.
8. Quanto ao dever de mitigação de riscos sistêmicos, caberá ao Congresso Nacional regular o tema, inclusive com definição de sanções e órgão regulador independente e autônomo, a ser criado.
9. Os provedores de aplicação de internet que possuem papel ativo deverão criar ou indicar, no prazo de 180 dias, uma entidade de natureza privada que possa promover a autorregulação regulada, inclusive com a atribuição de desenvolver mecanismos de inteligência artificial destinados à remoção de conteúdos ilícitos das mais diversas formas e desenvolver e difundir ações de educação digital.
10. Para privilegiar a segurança jurídica, atribui-se efeitos prospectivos à interpretação proposta. Desse modo, para os casos posteriores à vigência da Lei n. 12.965/2014 e anteriores ao trânsito em julgado da presente decisão, deve ser aplicado o regime de imunidade originalmente definido pelo Marco Civil da Internet, que exceptua o modelo de exclusão após decisão judicial apenas nos casos de conteúdo íntimo de nudez ou atos sexuais e violação de direito autoral."
Quem mais votou?
Além de Zanin, outros seis ministros já apresentaram votos.
Relatores, ministro Dias Toffoli e Luiz Fux manifestaram-se pela inconstitucionalidade do art. 19, defendendo que as plataformas podem ser responsabilizadas independentemente de ordem judicial, sobretudo em casos graves, como perfis falsos e discurso de ódio.
O presidente da Corte, ministro Luís Roberto Barroso, adotou posição intermediária: manutenção da exigência de ordem judicial para crimes contra a honra, com admissão da notificação extrajudicial para outros ilícitos evidentes.
Já o ministro André Mendonça votou pela constitucionalidade do dispositivo, ressaltando a importância do devido processo legal e da autorregulação das plataformas.
Ministro Flávio Dino defendeu um modelo segmentado: notificação extrajudicial para conteúdos ilícitos evidentes, ordem judicial para crimes contra a honra, e responsabilização direta das plataformas por atos próprios, como impulsionamento pago e perfis inautênticos. Sugeriu ainda um regime de autorregulação regulada, com deveres procedimentais mínimos e relatórios de transparência, sem necessidade de novo órgão estatal de controle.
Gilmar Mendes reconheceu a superação do modelo atual, ressaltando que o art. 19 parte de um paradigma ultrapassado, que ignora a atuação ativa das plataformas na curadoria de conteúdo.
Propôs quatro regimes distintos de responsabilidade, a depender do grau de interferência da plataforma, com destaque para hipóteses de presunção em conteúdos patrocinados e responsabilização direta em casos graves.
Defendeu ainda obrigações procedimentais e atribuição da fiscalização à ANPD.