Migalhas Quentes

STF tem oito votos para ampliar responsabilidade de redes por conteúdo

Com exceção do ministro Nunes Marques, os demais membros da Corte já votaram.

25/6/2025

Nesta quarta-feira, 25, o plenário do STF voltou a analisar a constitucionalidade do art. 19 do marco civil da internet (lei 12.965/14), que condiciona a responsabilidade civil das plataformas digitais à existência de ordem judicial prévia para a remoção de conteúdos gerados por terceiros.

Durante a sessão votaram ministra Cármen Lúcia e ministro Edson Fachin.

Cármen votou pela responsabilização das plataformas em caso de descumprimento de ordens judiciais, alertando para a fragilidade do atual modelo jurídico diante da propagação de conteúdos ilícitos. A ministra defendeu interpretação conforme à Constituição do art. 19 do marco civil da internet para garantir eficácia à proteção de direitos no ambiente digital.

Na direção oposta, ministro Edson Fachin votou pela constitucionalidade do artigo, destacando que o modelo legal estimula a moderação responsável sem comprometer a liberdade de expressão. Para S. Exa., a solução para os desafios das redes deve ser buscada no Legislativo, evitando-se riscos de controle indevido de discursos e concentração de poder.

A análise ocorre no âmbito de dois recursos extraordinários com repercussão geral reconhecida —  RE 1.037.396 (Tema 987) e RE 1.057.258 (Tema 533)

Até o momento, são oito os ministros que defendem a ampliação da responsabilidade das chamadas big techs. Ainda falta o voto do ministro Nunes Marques.

Segundo informou o presidente da Corte, ministro Barroso, após a conclusão dos votos, a análise será novamente interrompida para a formulação e consolidação das teses, com o objetivo de unificar os entendimentos prevalecentes ao longo das sessões.

O julgamento continuará na sessão de quinta-feira, 26.

Veja um resumo dos votos:

!function(){"use strict";window.addEventListener("message",(function(a){if(void 0!==a.data["datawrapper-height"]){var e=document.querySelectorAll("iframe");for(var t in a.data["datawrapper-height"])for(var r,i=0;r=e[i];i++)if(r.contentWindow===a.source){var d=a.data["datawrapper-height"][t]+"px";r.style.height=d}}}))}();

O que está em debate?

O art. 19 do marco civil prevê que os provedores de aplicações só respondem por danos se, após ordem judicial específica, não retirarem o conteúdo apontado como ilícito.

A controvérsia está na constitucionalidade dessa exigência, especialmente diante de casos de ilicitude manifesta - como discursos de ódio, deepfakes ou ameaças à integridade física, ou moral.

O STF analisa se esse dispositivo viola a CF por restringir indevidamente o direito à reparação de danos e favorecer a impunidade em ambientes digitais. Também se avalia se determinadas situações justificam a responsabilização direta das plataformas, mesmo sem ordem judicial, como em casos de contas falsas ou impulsionamento pago de conteúdo ofensivo.

Casos concretos

Já há resultado provisório quanto aos casos concretos analisados, destacando que a definição das teses jurídicas permanece pendente.

No RE 1.037.396, relatado pelo ministro Dias Toffoli, oito ministros votaram por negar provimento ao recurso: o próprio relator, além de Luiz Fux, Luís Roberto Barroso, André Mendonça, Flávio Dino, Gilmar Mendes, Cristiano Zanin e ministra Cármen Lúcia.

O caso trata da responsabilização do Facebook por permitir a manutenção de um perfil falso com conteúdo ofensivo, mesmo após notificação. A usuária prejudicada obteve indenização na instância inferior, e a empresa recorreu ao STF sustentando a constitucionalidade do art. 19 do Marco Civil da Internet.

Já no RE 1.057.258, sob relatoria do ministro Luiz Fux, o resultado parcial apontou divergência. Negaram provimento o relator, ministros Dias Toffoli e Alexandre de Moraes. Em sentido contrário, votaram pelo provimento os ministros André Mendonça, Flávio Dino, Cristiano Zanin e Gilmar Mendes.

O recurso discute a responsabilidade do Google pela permanência de uma página ofensiva hospedada no extinto Orkut. A empresa foi condenada nas instâncias inferiores e levou o caso ao STF, igualmente defendendo a validade do art. 19.

Portão de papelão

Ao votar, ministra Cármen Lúcia defendeu a responsabilização das plataformas digitais quando houver descumprimento de ordens judiciais para retirada de conteúdos ilícitos.

Na manifestação, a ministra criticou a ineficácia do atual regime legal diante da dinâmica das redes sociais, que, segundo ela, tem operado como um "cavalo de troia" capaz de violar garantias do Estado Democrático de Direito sem barreiras eficazes.

Cármen Lúcia destacou que o regime de responsabilidade das plataformas não pode se restringir apenas à produção de danos, como prevê o art. 19 do Marco Civil da Internet.

Segundo a ministra, é o descumprimento da ordem judicial que gera a responsabilização da empresa — e não a simples permanência do conteúdo prejudicial. "Se cumpre a decisão judicial, não há responsabilidade", afirmou. Caso contrário, segundo a ministra, a responsabilidade se impõe, inclusive com previsão no Código Penal.

A ministra usou uma metáfora para ilustrar o que considera uma fragilidade institucional diante dos abusos cometidos no ambiente digital.

"Construímos uma grande fortaleza de direito para garantir a democracia e todas as liberdades, mas puséssemos um portão de papelão."

Na avaliação da ministra, o atual modelo jurídico falha ao não impedir a propagação transnacional de conteúdos ilícitos e ofensivos, frequentemente replicados mesmo após decisões judiciais determinando sua remoção.

Embora reconheça a liberdade de expressão como um pilar democrático essencial, Cármen Lúcia advertiu que não se pode permitir que ela seja instrumentalizada para promover censura horizontal ou ataques a direitos fundamentais. 

S. Exa. propôs "interpretação conforme" à Constituição, de modo a assegurar a responsabilização em casos de crimes — incluindo não apenas crimes contra a honra, mas também os que atingem o Estado Democrático de Direito e as liberdades públicas.

Veja trecho do voto:

Validade do art. 19

Ministro Edson Fachin votou pela constitucionalidade do art. 19 do marco civil da internet, posicionando-se contra o agravamento da responsabilidade civil das plataformas sem ordem judicial.

433394

Para o ministro, embora haja um diagnóstico comum entre os ministros quanto à necessidade de maior proteção aos direitos fundamentais, a solução não pode comprometer o equilíbrio entre liberdade de expressão e responsabilidade.

Fachin alertou para riscos de controle indevido de discursos, erosão da pluralidade democrática nas redes e concentração de poder nas plataformas. Defendeu que os remédios para os desafios do ambiente digital devem ser encontrados dentro da "caixa de ferramentas da própria democracia", com soluções estruturais a cargo do Legislativo.

No voto, traçou um paralelo entre os modelos norte-americano e europeu de regulação da internet, destacando que o art. 19 não representa omissão, mas um modelo legítimo que estimula a moderação responsável e protege a liberdade de expressão.

Fachin também expressou preocupação com a ampliação indevida do julgamento para além dos temas de repercussão geral, o que, em sua visão, comprometeria a segurança jurídica.

Ao final, apresentou a seguinte tese:

"Quando ofereçam apenas serviços de acesso, busca e armazenamento de dados, sem interferir em seu conteúdo, os provedores de aplicação somente podem ser responsabilizados por conteúdos gerados por terceiros, se após ordem judicial específica, não tomarem providências para, no âmbito e nos limites técnicos de seu funcionamento e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente."

Veja trechos do voto:

Impunidade

Ministro Alexandre de Moraes ao votar, defendeu a responsabilização das plataformas digitais e criticou a ideia de que as big techs estariam acima das leis nacionais.

Para o ministro, as redes sociais deixaram de ser meras intermediárias tecnológicas e devem ser tratadas como empresas de comunicação, sujeitas aos mesmos deveres constitucionais.

"Temos que nos perguntar se as big techs possuem uma cláusula absoluta de impunidade", disse, ao argumentar que a liberdade de expressão não pode ser usada como escudo para práticas criminosas.

Moraes exibiu publicações racistas e homofóbicas no telão do plenário, afirmando:

"Isso não é utilização da liberdade de expressão, isso é crime."

O ministro também rebateu críticas que classificam a regulação como autoritária e invocou a obra de John Stuart Mill para demonstrar que a liberdade de expressão não é absoluta.

"Dizem que somos ditadores porque queremos cercear o chamado mercado livre de ideias, idealizado por John Stuart Mill. E quem diz isso jamais leu John Stuart Mill", ironizou.

"Você dá um Google e vem uma frasezinha lá, então você virou culto."

Segundo S. Exa., há consenso na Corte de que o art. 19 deve ser reinterpretado à luz dos princípios constitucionais e da realidade tecnológica.

O ministro defendeu que a Corte adote interpretação constitucional condizente com os avanços tecnológicos e com a proteção dos direitos fundamentais. Segundo Moraes, redes sociais e serviços de mensageria privada têm sido utilizados para alimentar "inconstitucionalização silenciosa", promovida por discursos de ódio, desinformação e manipulação digital.

Moraes argumentou que o modelo atualmente adotado — no qual as plataformas se limitam a alegar que apenas intermediam conteúdos — tornou-se insustentável diante da complexidade tecnológica.

"As big techs sabem o que você lê, o que você compra, o que você come... Nenhum regime totalitário jamais teve tantos dados sobre as pessoas quanto essas empresas têm", declarou.

Propôs tese para equiparar legalmente as redes sociais aos meios de comunicação, responsabilizando-as solidariamente por conteúdos impulsionados mediante pagamento, por redes automatizadas (robôs) e por omissão diante de discursos de ódio.

Defendeu ainda que as plataformas tenham sede no Brasil, adotem transparência algorítmica e mecanismos preventivos para evitar manipulações — a exemplo da regulação vigente na União Europeia.

Novo regramento

Ao votar, ministro Gilmar Mendes defendeu a superação do modelo de responsabilidade mitigada das plataformas digitais e propôs um novo marco regulatório.

Segundo o decano da Corte, gigantes como Google, Facebook e Amazon deixaram de ser meras transmissoras de conteúdo e atuam hoje como verdadeiros reguladores do discurso público.

"O paradigma de neutralidade com relação ao conteúdo foi completamente superado", afirmou Gilmar, ao destacar que essas plataformas interferem ativamente na circulação de informações, promovendo ou restringindo conteúdos por meio de algoritmos.

Essa atuação, disse o ministro, não é neutra, mas orientada por modelos de negócio voltados à maximização do engajamento e à monetização da atenção dos usuários.

Gilmar endossou os votos dos ministros Toffoli, Fux, André Mendonça, Flávio Dino e Cristiano Zanin, para quem o art. 19 — que condiciona a responsabilização das plataformas à existência de ordem judicial — tornou-se defasado.

"Embora o dispositivo tenha sido de inegável importância para a construção de uma internet plural e aberta, hoje se mostra, a meu ver, ultrapassado", declarou.

Para S. Exa., a autorregulação atualmente praticada pelas plataformas é insuficiente. Propôs, por isso, quatro regimes distintos de responsabilização, a depender do grau de interferência da plataforma sobre o conteúdo:

Além disso, o ministro defendeu a criação de um órgão regulador — com destaque para a ANPD — para fiscalizar obrigações procedimentais como relatórios de transparência, sistemas de notificação, repositórios de anúncios e canais de recurso para usuários atingidos por medidas de moderação.

Proteção insuficiente

Ministro Cristiano Zanin votou pela inconstitucionalidade parcial — ou interpretação conforme — do art. 19 do marco civil da internet.

Para S. Exa., ao exigir ordem judicial para responsabilizar provedores, o dispositivo oferece proteção insuficiente frente aos direitos fundamentais ameaçados pela disseminação de conteúdos ilícitos.

Zanin criticou premissas que embasaram a norma, como a suposta neutralidade das plataformas e a eficácia da autorregulação. Segundo ele, essas premissas não se confirmaram: algoritmos e políticas de engajamento reforçam a circulação de desinformação, comprometendo o Estado Democrático de Direito.

Ressaltou que a liberdade de expressão não é absoluta e que a literalidade do art. 19 viola o princípio da proporcionalidade. Sugeriu modelo de responsabilidade subjetiva diferenciada: provedores ativos responderiam após notificação (art. 21), enquanto provedores neutros e imprensa, apenas após decisão judicial.

Aderiu aos deveres de cuidado propostos por Toffoli e defendeu que plataformas devem prevenir riscos sistêmicos.

Também propôs modulação dos efeitos para que a nova interpretação só se aplique a fatos futuros. Nos casos concretos, votou por afastar a condenação do Facebook, dado o marco temporal da modulação.

Veja a proposta de tese:

"1. O art. 19 da Lei nº 12.965/2014 (Marco Civil da Internet), que exige ordem judicial específica para a responsabilização civil de provedor de aplicações de internet por danos decorrentes de conteúdo gerado por terceiros, é parcialmente inconstitucional. Há um estado de omissão parcial que decorre do fato de que a regra geral do art. 19 não confere proteção suficiente a bens jurídicos constitucionais de alta relevância (proteção de direitos fundamentais e da democracia).

2. Enquanto não sobrevier legislação, em interpretação conforme à Constituição, a responsabilização civil de provedores de aplicações de internet deve se sujeitar ao seguinte regime, ressalvadas as disposições específicas da legislação eleitoral e os atos normativos expedidos pelo TSE:

2.1 O regime de decisão judicial e retirada do art. 19 do Marco Civil da Internet aplica-se (i) aos provedores de aplicação intermediários de conteúdo gerado por terceiros considerados neutros; (ii) e, aos provedores de aplicação ativos, apenas nos casos de publicação, pelo usuário, de conteúdo não manifestamente criminoso.

2.2. O regime de notificação extrajudicial e retirada, do art. 21 do MCI, deve ser estendido aos provedores de aplicação intermediários que atuam ativamente na promoção e disseminação de conteúdo e, após serem notificados, deixam de remover conteúdo manifestamente criminoso. Considera-se observado o dever de cuidado quando, após a notificação, o provedor de aplicação executa mecanismos efetivos de prevenção e controle para checar a veracidade das alegações e mitigar danos. Caso se trate de conteúdo de ilicitude duvidosa ou que dependa de juízos de valor para aferir a sua ilicitude, considera-se cumprido o dever de cuidado se, adotados tais mecanismos, o provedor é capaz de demonstrar que não há evidente caráter ilícito do conteúdo e que deverá prevalecer, então, a livre manifestação do pensamento. Quando houver elementos objetivos que demonstrem que o conteúdo é ilícito, surge para os provedores de aplicação o dever de agir para excluí-lo. Esse dever abrange a publicação de conteúdos comprovadamente fraudulentos, como perfis falsos ou invasões de contas.

2.3. No caso de anúncios e impulsionamentos, presume-se o conhecimento do ilícito desde a aprovação da publicidade pela plataforma, sendo possível a responsabilização independente de notificação, salvo quando a plataforma comprove que atuou diligentemente e em tempo razoável para indisponibilizar o conteúdo. Também haverá presunção relativa de conhecimento, a ensejar a responsabilização civil, nos casos de danos provocados por chatbots (robôs).

3. A responsabilidade civil nesses regimes ésubjetiva. Em todo caso, os provedores não poderão ser responsabilizados civilmente quando houver dúvida razoável sobre a ilicitude dos conteúdos.

4. Estão excluídos do âmbito de aplicação do regime específico previsto nos arts. 18 a 21 do Marco Civil da Internet os provedores de aplicação intermediários de fornecimento de produtos e serviços (Marketplaces e assemelhados).

5. Os provedores de aplicações de internet deverão manter um sistema de notificações, definir um devido processo e publicar relatórios anuais de transparência em relação a notificações extrajudiciais e anúncios e impulsionamento, além de promover ações de educação digital. 

6. Além disso, os provedores de aplicações de internet estão submetidos a um dever de cuidado de que decorre a obrigação de prevenir e mitigar riscos sistêmicos criados ou potencializados por suas atividades, a ser cumprido por meio de mecanismos fidedignos de avaliação do conteúdo que conjuguem atos humanos e agentes de inteligência artificial. As plataformas devem atuar proativamente para que estejam livres dos seguintes conteúdos extraordinariamente nocivos:

(i) pornografia infantil e crimes graves contra vulneráveis;

(ii) induzimento, instigação ou auxílio a suicídio ou a automutilação;

(iii) tráfico de pessoas;

(iv) atos de terrorismo;

(v) abolição violenta do Estado Democrático de Direito e golpe de Estado.

A responsabilização nesses casos pressupõe uma falha sistêmica, e não meramente a ausência de remoção de um conteúdo.

7. Em casos de remoção de conteúdo pela plataforma em razão do cumprimento dos deveres inerentes ao item 6, o autor do conteúdo poderá requerer judicialmente o seu restabelecimento, mediante demonstração da ausência de ilicitude. Ainda que o conteúdo seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor.

8. Quanto ao dever de mitigação de riscos sistêmicos, caberá ao Congresso Nacional regular o tema, inclusive com definição de sanções e órgão regulador independente e autônomo, a ser criado.

9. Os provedores de aplicação de internet que possuem papel ativo deverão criar ou indicar, no prazo de 180 dias, uma entidade de natureza privada que possa promover a autorregulação regulada, inclusive com a atribuição de desenvolver mecanismos de inteligência artificial destinados à remoção de conteúdos ilícitos das mais diversas formas e desenvolver e difundir ações de educação digital.

10. Para privilegiar a segurança jurídica, atribui-se efeitos prospectivos à interpretação proposta. Desse modo, para os casos posteriores à vigência da Lei n. 12.965/2014 e anteriores ao trânsito em julgado da presente decisão, deve ser aplicado o regime de imunidade originalmente definido pelo Marco Civil da Internet, que exceptua o modelo de exclusão após decisão judicial apenas nos casos de conteúdo íntimo de nudez ou atos sexuais e violação de direito autoral."

Tecnodeterminismo

Ministro Flávio Dino criticou o impacto social das redes sociais e defendeu um modelo constitucional de liberdade baseado na responsabilidade.

Para S. Exa., a ideia de que qualquer regulação compromete a liberdade de expressão é "absolutamente falsa" e distorce o liberalismo clássico, que também prevê limites a poderes privados abusivos.

Dino compartilhou experiências pessoais, como o episódio dos ataques a escolas em 2023 e a leitura de um livro sobre os riscos da internet para adolescentes, para ilustrar a urgência de uma regulação eficaz.

Afirmou que consultou a Meta IA e, que, a partir da resposta da tecnologia, "até o algoritmo sabe" que liberdade sem responsabilidade representa um perigo — e que não há espaço para autorregulação privada sem controle constitucional.

Ao final, Dino propôs a seguinte tese:

"1. O provedor de aplicações de internet poderá ser responsabilizado civilmente nos termos do art. 21 da Lei nº 12.965/2014 (Marco Civil da Internet), pelos danos decorrentes de conteúdos gerados por terceiros, ressalvadas as disposições específicas da legislação eleitoral e os atos normativos expedidos pelo TSE. O regime do art. 19 da citada lei aplica-se exclusivamente a alegações de ofensas e crimes contra a honra. 

2. São considerados atos dos próprios provedores de aplicação de internet, podendo haver responsabilidade civil, independente de prévia notificação judicial ou extrajudicial, nos termos do art. 927, “caput”, do Código Civil:

A) Postagens de perfis com anonimização do usuário, vedada pelo art. 5°, IV, da Constituição Federal, que gere obstáculos à responsabilização, incluindo perfis falsos e chatbots (robôs); 

B) Ilicitudes veiculadas em anúncios pagos e postagens patrocinadas, ou mecanismos similares. 

3. Na hipótese de configuração de falha sistêmica, os provedores podem ser responsabilizados civilmente nos termos do art. 14, § 1º, II, do Código de Defesa do Consumidor, pelos conteúdos criados por terceiros nos seguintes casos, em rol taxativo:

A) Crimes contra crianças e adolescentes;

B) Crime de induzimento, instigação ou auxílio ao suicídio ou à automutilação previsto no art. 122 do Código Penal;

C) Crime de terrorismo, nos termos da Lei nº 13.260/2016;

D) Fazer apologia ou instigar violência, ou grave ameaça, visando à prática dos crimes contra o Estado Democrático de Direito devidamente tipificados em lei.

3.1. Para fins da responsabilidade civil prevista neste item, considera-se falha sistêmica, imputável ao provedor de aplicações de internet, deixar de adotar adequadas medidas de segurança contra os conteúdos ilícitos anteriormente listados, configurando violação aos deveres específicos de prevenção e precaução, assim como do dever de cuidado necessário aos provedores citados.

3.2 Consideram-se adequadas as medidas que, conforme o estado da técnica, forneçam os níveis mais elevados de segurança para o tipo de atividade desempenhada pelo provedor. 

3.3 A existência de conteúdo ilícito de forma atomizada e isolada não é, por si só, suficiente para configurar a responsabilidade civil de acordo com este item. Contudo, uma vez recebida notificação extrajudicial sobre a ilicitude, passará a incidir a regra estabelecida no artigo 21 da Lei nº 12.965/2014 (Marco Civil da Internet).

3.4 Em tais hipóteses, o autor do conteúdo poderá requerer judicialmente o seu restabelecimento, mediante demonstração da ausência de ilicitude. Ainda que o conteúdo seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor.

4. Os provedores de aplicações de internet deverão editar autorregulação que abranja, necessariamente, um sistema de notificações, um devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamento.

4.1 Tais regras deverão ser publicadas e revisadas periodicamente, de forma transparente e acessível ao público.

4.2 As obrigações mencionadas neste item 4 serão monitoradas pela Procuradoria Geral da República, até que sobrevenha lei específica regulando a autorregulação dos provedores de aplicação de internet."

Pela inconstitucionalidade - I

Em dezembro de 2024, o relator Dias Toffoli votou pela declaração de inconstitucionalidade do art. 19. Para S. Exa., a norma concede imunidade excessiva às plataformas, favorecendo a disseminação de conteúdos nocivos. Defendeu que o mesmo rigor jurídico aplicado ao mundo físico deve prevalecer no ambiente digital.

Toffoli propôs a responsabilização objetiva em casos graves, como perfis falsos ou ameaças à integridade eleitoral, admitindo notificações extrajudiciais como suficientes.

Ressalvou, porém, que e-mails, ferramentas de reuniões online e blogs jornalísticos devem seguir regimes próprios - no caso da imprensa, a lei do direito de resposta (lei 13.188/15).

Também defendeu a possibilidade de aplicação retroativa da responsabilização, em nome da proteção de direitos fundamentais.

O ministro sugeriu a seguinte tese:

"I. É inconstitucional o art. 19, caput, e o § 1º do marco civil da internet, sendo inconstitucionais, por arrastamento, os demais parágrafos do art. 19.

II. Como regra, o provedor de aplicações de internet será responsabilizado civilmente nos termos do art. 21, pelos danos decorrentes de conteúdos gerados por terceiros, inclusive na hipótese de danos à intimidade, à vida privada, à honra e à imagem, quando notificado pelo ofendido ou seu representante legal, preferencialmente pelos canais de atendimento, deixar de promover em prazo razoável as providências cabíveis, ressalvadas as disposições da legislação eleitoral e os atos normativos do Tribunal Superior Eleitoral.

III. O provedor de aplicações de internet responde civilmente de forma objetiva, e independentemente de notificação pelos danos decorrentes de conteúdos gerados por terceiros, nas seguintes hipóteses:

quando recomendem ou impulsionem de forma remunerada, ou não, os conteúdos;

quando se tratar de conta inautêntica;

quando se tratar de direitos do autor e conexos; e

quando configurarem práticas previstas em rol taxativo.

IV. Os provedores que funcionarem como marketplaces, respondem objetiva e solidariamente com o respectivo anunciante nas hipóteses de anúncios de produtos de venda proibida ou sem certificação, ou homologação pelos órgãos competentes."

Toffoli ainda previu um conjunto de deveres anexos, de transferência, de devido processo e outras providências.

E por fim, afirmou que os provedores de aplicações de internet com sede no exterior e atuação no Brasil, devem constituir representante no país. 

Pela inconstitucionalidade - II

Na mesma linha, Luiz Fux considerou o art. 19 inconstitucional, criticando o modelo que condiciona a responsabilidade à ordem judicial específica.

Ressaltou que, diferentemente da imprensa tradicional, as plataformas não se submetem a mecanismos de verificação prévia, o que favorece a propagação de danos à dignidade humana.

Fux defendeu que, diante da evidência da ilicitude ou após notificação idônea, as plataformas devem ser responsabilizadas. Em casos como racismo, pedofilia ou apologia ao golpe de Estado, sustentou que as empresas têm o dever de monitoramento ativo. Já em relação a conteúdos que ferem honra ou privacidade, sugeriu responsabilização após notificação fundamentada.

Além disso, afirmou que, quando o conteúdo ofensivo é impulsionado por pagamento, presume-se o conhecimento da ilicitude por parte da plataforma.

O ministro sugeriu a seguinte tese:

"1. A disposição do art. 19 do Marco Civil da Internet (Lei Federal nº 12.965/2014) não exclui a possibilidade de responsabilização civil de provedores de aplicações de internet por conteúdos gerados por terceiros nos casos em que, tendo ciência inequívoca do cometimento de atos ilícitos, seja porquanto evidente, seja porque devidamente informados por qualquer meio idôneo, não procederem à remoção imediata do conteúdo.

2. Considera-se evidentemente ilícito (item 1) o conteúdo gerado por terceiro que veicule discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e apologia ao Golpe de Estado. Nestas hipóteses específicas, há para as empresas provedoras um dever de monitoramento ativo, com vistas à preservação eficiente do Estado Democrático de Direito.

3. Nos casos de postagens ofensivas à honra, à imagem e à privacidade de particulares, a ciência inequívoca da ilicitude por parte das empresas provedoras, necessária à responsabilização civil, dependerá de sua prévia e fundamentada notificação pelos interessados, que poderá ser realizada por qualquer meio idôneo, cabendo às plataformas digitais o dever de disponibilizar meios eletrônicos eficientes, funcionais e sigilosos para o recebimento de denúncias e reclamações de seus usuários que se sintam lesados. 

4. É presumido, de modo absoluto, o efetivo conhecimento da ilicitude do conteúdo produzido por terceiros por parte da empresa provedora de aplicações de internet, nos casos de postagens onerosamente impulsionadas."

Posição intermediária

Ministro Luís Roberto Barroso propôs solução de equilíbrio. Embora reconheça a inconstitucionalidade parcial do art. 19, sugeriu ajustes que mantenham a regra geral com exceções ampliadas.

Propôs um sistema dual: de um lado, responsabilidade subjetiva para conteúdos gerados por terceiros; de outro, dever de cuidado em relação a riscos sistêmicos, como pornografia infantil, tráfico de pessoas e terrorismo.

Para crimes contra a honra, defendeu a exigência de ordem judicial como salvaguarda à liberdade de expressão. Para os demais ilícitos, admitiu a remoção com base em notificação privada.

Barroso também apelou ao Congresso Nacional para aprovar um marco regulatório que discipline a mitigação de riscos sistêmicos, com exigência de auditorias, relatórios e supervisão por órgão autônomo.

Enquanto isso não ocorre, sugeriu que as plataformas publiquem relatórios anuais de transparência, nos moldes do Digital Services Act europeu.

Ao final, sugeriu a seguinte tese:

"I. O art. 19 é só parcialmente inconstitucional. A exigência de ordem judicial para remoção de conteúdo continua a valer, mas é insuficiente.

II. Nos casos de crime, exceto de crimes contra a honra, notificação extrajudicial, nos casos de crime, exceto de crimes contra a honra, deve ser suficiente para a remoção de conteúdo. 

III. Nos casos de crimes contra a honra e de ilícitos civis em geral, continua a se aplicar a exigência de ordem judicial para a remoção. 

IV. As empresas têm o dever de cuidado de evitar que determinados conteúdos cheguem ao espaço público, independentemente de ordem judicial ou de notificação privada: pornografia infantil e crimes graves contra crianças e adolescentes, induzimento, instigação ou auxílio a suicídio ou automutilação, tráfico de pessoas, atos de terrorismo, abolição violenta do Estado Democrático de Direito e golpe de Estado.

V. Nos casos referidos no item IV acima, a responsabilização pressupõe uma falha sistêmica e não meramente a ausência de remoção de um conteúdo específico.

VI. Nos casos de anúncio ou impulsionamento pago, o conhecimento efetivo do conteúdo ilícito é presumido desde a aprovação da publicidade. Caso o provedor não adote providências em tempo razoável poderá ser responsabilizado ainda que não tenha havido notificação privada."

Por fim, previu deveres anexos como canal de comunicação, devido processo e relatórios de transparência. 

Voto-vista 

No voto-vista apresentado em 5 de junho, o ministro André Mendonça propôs atualização do paradigma jurídico da liberdade de expressão para o contexto digital, defendendo regulação segmentada conforme o tipo de serviço (como redes sociais, aplicativos de mensagem e marketplaces) e baseada em deveres de diligência, não em resultados.

Crítico à moderação automatizada, alertou para riscos de censura indireta e defendeu que a responsabilização das plataformas deve se pautar por procedimentos e governança, e não por conteúdos isolados.

Propôs modelo de autorregulação regulada, com compliance e transparência, capaz até de afastar a responsabilidade das empresas.

Também destacou que a suspensão de perfis só deve ocorrer com base legal ou judicial, como exceção, em respeito ao devido processo e à personalidade digital do indivíduo.

Ao final, o ministro sugeriu a seguinte tese de julgamento:

"I. Serviços de mensageria privada não podem ser equiparados à mídia social. Em relação a tais aplicações de internet, prevalece a proteção à intimidade, vida privada, sigilo das comunicações e proteção de dados. Portanto, não há que se falar em dever de monitoramento ou autorregulação na espécie.

II. É inconstitucional a remoção ou a suspensão de perfis de usuários, exceto quando [a] comprovadamente falsos - seja porque (i) relacionados a pessoa que efetivamente existe, mas denuncia, com a devida comprovação, que não o utiliza ou criou; ou (ii) relacionados a pessoa que sequer existe fora do universo digital ("perfil robô"); ou [b] cujo objeto do perfil seja a prática de atividade em si criminosa.

III. As plataformas em geral, tais como mecanismos de busca, marketplaces etc., tem o dever de promover a identificação do usuário violador de direito de terceiro (art. 15 c/c art. 22 do MCI). Observado o cumprimento da referida exigência, o particular diretamente responsável pela conduta ofensiva é quem deve ser efetivamente responsabilizado via ação judicial contra si promovida.

IV. Nos casos em que admitida a remoção de conteúdo sem ordem judicial (por expressa determinação legal ou conforme previsto nos Termos e Condições de Uso das plataformas), é preciso assegurar a observância de protocolos que assegurem um procedimento devido, capaz de garantir a possibilidade do usuário [a] ter acesso às motivações da decisão que ensejou a exclusão, [b] que essa exclusão seja feita preferencialmente por humano [uso excepcional de robôs e inteligência artificial no comando de exclusão]; [c] possa recorrer da decisão de moderação, [d] obtenha resposta tempestiva e adequada da plataforma, dentre outros aspectos inerentes aos princípios processuais fundamentais.

V. Excetuados os casos expressamente autorizados em lei, as plataformas digitais não podem ser responsabilizadas pela ausência de remoção de conteúdo veiculado por terceiro, ainda que posteriormente qualificado como ofensivo pelo Poder Judiciário, aí incluídos os ilícitos relacionados à manifestação de opinião ou do pensamento.

VI. Há possibilidade de responsabilização, por conduta omissiva ou comissiva própria, pelo descumprimento dos deveres procedimentais que lhe são impostos pela legislação, aí incluída [a] a obrigação de aplicação isonômica, em relação a todos os seus usuários, das regras de conduta estabelecidas pelos seus Termos e Condições de Uso, os quais devem guardar conformidade com as disposições do Código de Defesa do Consumidor e com a legislação em geral; e [b] a adoção de mecanismos de segurança digital aptos a evitar que as plataformas sejam utilizadas para a prática de condutas ilícitas.

VII. Em observância ao devido processo legal, a decisão judicial que determinar a remoção de conteúdo [a] deve apresentar fundamentação específica, e, [b] ainda que proferida em processo judicial sigiloso, deve ser acessível à plataforma responsável pelo seu cumprimento, facultada a possibilidade de impugnação."

Veja a versão completa

Leia mais

Migalhas Quentes

“Não é ódio, é ódia”, diz Cármen Lúcia de discursos contra mulheres

25/6/2025
Migalhas Quentes

Ministra Cármen Lúcia alerta para riscos persistentes de censura no Brasil

25/6/2025
Migalhas Quentes

STF: Fachin defende remoção de post apenas após decisão judicial

25/6/2025
Migalhas Quentes

STF tem sete votos para ampliar responsabilidade de redes sociais

12/6/2025
Migalhas Quentes

Moraes quer equiparar responsabilidade de redes à da mídia tradicional

12/6/2025
Migalhas Quentes

STF: Gilmar propõe quatro regimes para responsabilizar redes sociais

11/6/2025
Migalhas Quentes

STF forma maioria para ampliar responsabilidade de redes sociais

11/6/2025
Migalhas Quentes

STF: Para Dino, redes devem responder conforme gravidade do conteúdo

11/6/2025