MIGALHAS QUENTES

  1. Home >
  2. Quentes >
  3. STF tem quatro votos diversos sobre responsabilidade das redes; veja teses
Supremo | Sessão

STF tem quatro votos diversos sobre responsabilidade das redes; veja teses

Corte analisa se plataformas podem ser responsabilizadas por postagens ilícitas de usuários mesmo sem ordem judicial prévia.

Da Redação

quinta-feira, 5 de junho de 2025

Atualizado às 19:15

Nesta quinta-feira, 5, o STF, em sessão plenária, voltou a julgar a constitucionalidade do art. 19 do marco civil da internet (lei 12.965/14) e a extensão da responsabilidade civil de redes sociais por conteúdos gerados por terceiros.

O julgamento, de repercussão geral, gira em torno de dois recursos extraordinários - RE 1.037.396 (Tema 987) e RE 1.057.258 (Tema 533) - que tratam da necessidade, ou não, de decisão judicial prévia para haver responsabilização das plataformas por danos decorrentes de postagens de usuários.

A análise foi suspensa, devido ao adiantado da hora, após a conclusão da leitura do voto-vista do ministro André Mendonça. 

Ainda não foi estabelecido quando o julgamento será retomado.

O que está em debate?

O art. 19 do marco civil prevê que os provedores de aplicações só respondem por danos se, após ordem judicial específica, não retirarem o conteúdo apontado como ilícito.

A controvérsia está na constitucionalidade dessa exigência, especialmente diante de casos de ilicitude manifesta - como discursos de ódio, deepfakes ou ameaças à integridade física, ou moral.

O STF analisa se esse dispositivo viola a CF por restringir indevidamente o direito à reparação de danos e favorecer a impunidade em ambientes digitais. Também se avalia se determinadas situações justificam a responsabilização direta das plataformas, mesmo sem ordem judicial, como em casos de contas falsas ou impulsionamento pago de conteúdo ofensivo.

Casos concretos

Os dois processos em análise envolvem ofensas praticadas em redes sociais:

No RE 1.037.396, o Facebook foi acionado por permitir a existência de perfil falso com ofensas a terceiros. A usuária obteve indenização na instância inferior, e a empresa recorreu ao STF defendendo a constitucionalidade do art. 19.

No RE 1.057.258, discute-se a responsabilidade do Google por manter ativa uma página ofensiva no extinto Orkut. A empresa foi condenada e também levou o caso ao Supremo.

Pela inconstitucionalidade - I

Em dezembro de 2024, o relator Dias Toffoli votou pela declaração de inconstitucionalidade do art. 19. Para S. Exa., a norma concede imunidade excessiva às plataformas, favorecendo a disseminação de conteúdos nocivos. Defendeu que o mesmo rigor jurídico aplicado ao mundo físico deve prevalecer no ambiente digital.

Toffoli propôs a responsabilização objetiva em casos graves, como perfis falsos ou ameaças à integridade eleitoral, admitindo notificações extrajudiciais como suficientes.

Ressalvou, porém, que e-mails, ferramentas de reuniões online e blogs jornalísticos devem seguir regimes próprios - no caso da imprensa, a lei do direito de resposta (lei 13.188/15).

Também defendeu a possibilidade de aplicação retroativa da responsabilização, em nome da proteção de direitos fundamentais.

O ministro sugeriu a seguinte tese:

"I. É inconstitucional o art. 19, caput, e o § 1º do marco civil da internet, sendo inconstitucionais, por arrastamento, os demais parágrafos do art. 19.

II. Como regra, o provedor de aplicações de internet será responsabilizado civilmente nos termos do art. 21, pelos danos decorrentes de conteúdos gerados por terceiros, inclusive na hipótese de danos à intimidade, à vida privada, à honra e à imagem, quando notificado pelo ofendido ou seu representante legal, preferencialmente pelos canais de atendimento, deixar de promover em prazo razoável as providências cabíveis, ressalvadas as disposições da legislação eleitoral e os atos normativos do Tribunal Superior Eleitoral.

III. O provedor de aplicações de internet responde civilmente de forma objetiva, e independentemente de notificação pelos danos decorrentes de conteúdos gerados por terceiros, nas seguintes hipóteses:

quando recomendem ou impulsionem de forma remunerada, ou não, os conteúdos;

quando se tratar de conta inautêntica;

quando se tratar de direitos do autor e conexos; e

quando configurarem práticas previstas em rol taxativo.

IV. Os provedores que funcionarem como marketplaces, respondem objetiva e solidariamente com o respectivo anunciante nas hipóteses de anúncios de produtos de venda proibida ou sem certificação, ou homologação pelos órgãos competentes."

Toffoli ainda previu um conjunto de deveres anexos, de transferência, de devido processo e outras providências.

E por fim, afirmou que os provedores de aplicações de internet com sede no exterior e atuação no Brasil, devem constituir representante no país. 

Pela inconstitucionalidade - II

Na mesma linha, Luiz Fux considerou o art. 19 inconstitucional, criticando o modelo que condiciona a responsabilidade à ordem judicial específica.

Ressaltou que, diferentemente da imprensa tradicional, as plataformas não se submetem a mecanismos de verificação prévia, o que favorece a propagação de danos à dignidade humana.

Fux defendeu que, diante da evidência da ilicitude ou após notificação idônea, as plataformas devem ser responsabilizadas. Em casos como racismo, pedofilia ou apologia ao golpe de Estado, sustentou que as empresas têm o dever de monitoramento ativo. Já em relação a conteúdos que ferem honra ou privacidade, sugeriu responsabilização após notificação fundamentada.

Além disso, afirmou que, quando o conteúdo ofensivo é impulsionado por pagamento, presume-se o conhecimento da ilicitude por parte da plataforma.

O ministro sugeriu a seguinte tese:

"I. A disposição do art. 19 do marco civil da internet não exclui a possibilidade de responsabilização civil de provedores de aplicações de internet por conteúdos gerados por terceiros nos casos em que, tendo ciência inequívoca do cometimento de atos ilícitos, seja por quanto evidente, seja porque devidamente informados por qualquer meio idôneo, não procederem à remoção imediata do conteúdo.

II. Considera-se evidentemente ilícito o conteúdo gerado por terceiro que veicule discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e apologia ao golpe de Estado. Nestas hipóteses específicas há para as empresas provedoras um dever de monitoramento ativo com vistas à preservação eficiente do Estado Democrático de Direito.

III. Nos casos de postagens ofensivas à honra, à imagem e à privacidade de particulares, a ciência inequívoca da ilicitude por parte das empresas provedoras necessária à responsabilização civil, dependerá de sua prévia e fundamentada notificação pelos interessados, que poderá ser realizada por qualquer meio idôneo, cabendo às plataformas digitais o dever de disponibilizar meios eletrônicos eficientes, funcionais e sigilosos para o recebimento de denúncias e reclamações de seus usuários que se sintam lesados.

IV. É presumido de modo absoluto o efetivo conhecimento da ilicitude do conteúdo produzido por terceiros, por parte da empresa provedora de aplicações de internet, nos casos de postagens onerosamente impulsionadas."

Posição intermediária

Ministro Luís Roberto Barroso propôs solução de equilíbrio. Embora reconheça a inconstitucionalidade parcial do art. 19, sugeriu ajustes que mantenham a regra geral com exceções ampliadas.

Propôs um sistema dual: de um lado, responsabilidade subjetiva para conteúdos gerados por terceiros; de outro, dever de cuidado em relação a riscos sistêmicos, como pornografia infantil, tráfico de pessoas e terrorismo.

Para crimes contra a honra, defendeu a exigência de ordem judicial como salvaguarda à liberdade de expressão. Para os demais ilícitos, admitiu a remoção com base em notificação privada.

Barroso também apelou ao Congresso Nacional para aprovar um marco regulatório que discipline a mitigação de riscos sistêmicos, com exigência de auditorias, relatórios e supervisão por órgão autônomo.

Enquanto isso não ocorre, sugeriu que as plataformas publiquem relatórios anuais de transparência, nos moldes do Digital Services Act europeu.

Ao final, sugeriu a seguinte tese:

"I. O art. 19 é só parcialmente inconstitucional. A exigência de ordem judicial para remoção de conteúdo continua a valer, mas é insuficiente.

II. Nos casos de crime, exceto de crimes contra a honra, notificação extrajudicial, nos casos de crime, exceto de crimes contra a honra, deve ser suficiente para a remoção de conteúdo. 

III. Nos casos de crimes contra a honra e de ilícitos civis em geral, continua a se aplicar a exigência de ordem judicial para a remoção. 

IV. As empresas têm o dever de cuidado de evitar que determinados conteúdos cheguem ao espaço público, independentemente de ordem judicial ou de notificação privada: pornografia infantil e crimes graves contra crianças e adolescentes, induzimento, instigação ou auxílio a suicídio ou automutilação, tráfico de pessoas, atos de terrorismo, abolição violenta do Estado Democrático de Direito e golpe de Estado.

V. Nos casos referidos no item IV acima, a responsabilização pressupõe uma falha sistêmica e não meramente a ausência de remoção de um conteúdo específico.

VI. Nos casos de anúncio ou impulsionamento pago, o conhecimento efetivo do conteúdo ilícito é presumido desde a aprovação da publicidade. Caso o provedor não adote providências em tempo razoável poderá ser responsabilizado ainda que não tenha havido notificação privada."

Por fim, previu deveres anexos como canal de comunicação, devido processo e relatórios de transparência. 

Voto-vista 

Na sessão desta quinta-feira, 5, ministro André Mendonça retomou voto propondo atualização do paradigma jurídico da liberdade de expressão, para adequá-lo à era digital.

Destacou a necessidade de distinguir os diferentes tipos de serviços - como provedores de conexão, aplicativos de mensagens e plataformas com função coletiva, como marketplaces e redes sociais - e afirmou que a regulação deve levar em conta o alcance, a interferência algorítmica e a natureza da comunicação.

Referindo-se às legislações europeias (DSA e DMA), defendeu uma regulação segmentada e proporcional.

No caso das redes sociais, argumentou que conteúdos impulsionados pelas próprias plataformas não devem ser tratados da mesma forma que aqueles buscados espontaneamente pelos usuários. Ressaltou ainda a importância de proteger com mais intensidade as manifestações de agentes públicos, dada sua relevância para o debate democrático.

Crítico à moderação automatizada, o ministro alertou para os riscos constitucionais de algoritmos tomarem decisões sobre discursos humanos. Citou exemplos de remoções abusivas e o risco de censura indireta, propondo que a responsabilização se baseie não em conteúdos pontuais, mas nos procedimentos e na governança das plataformas.

Veja:

Ainda, defendeu um modelo de autorregulação regulada, baseado em programas de compliance com códigos de conduta, canais de denúncia e revisão periódica - sistema que, se bem implementado, pode inclusive afastar a responsabilidade da empresa.

Assista:

O ministro apresentou dados sobre remoções espontâneas de conteúdo por empresas como Meta, Google e TikTok, argumentando que a maioria dos casos não depende de decisão judicial. Assim, sustentou que a regulação deve se orientar por deveres de diligência, e não por resultados.

No plano jurídico, reafirmou que o art. 19 está em sintonia com o princípio segundo o qual a solidariedade não se presume e que a responsabilidade civil exige vínculo causal e análise do caso concreto. Enfatizou que perfis robôs, por não configurarem liberdade de expressão protegida, podem ensejar responsabilização direta.

Assista ao trecho:

Por fim, criticou medidas como a exclusão de perfis sem previsão legal ou decisão judicial, por violarem o devido processo legal.

Citando a ONU e a jurisprudência do STF, afirmou que a presença digital integra a personalidade do indivíduo e que a suspensão de perfis deve ser medida excepcional, restrita a casos comprovadamente lesivos, sob pena de configurar censura.

Confira:

Ao final, o ministro sugeriu a seguinte tese de julgamento:

"I. Serviços de mensageria privada não podem ser equiparados à mídia social. Em relação a tais aplicações de internet, prevalece a proteção à intimidade, vida privada, sigilo das comunicações e proteção de dados. Portanto, não há que se falar em dever de monitoramento ou autorregulação na espécie.

II. É inconstitucional a remoção ou a suspensão de perfis de usuários, exceto quando [a] comprovadamente falsos - seja porque (i) relacionados a pessoa que efetivamente existe, mas denuncia, com a devida comprovação, que não o utiliza ou criou; ou (ii) relacionados a pessoa que sequer existe fora do universo digital ("perfil robô"); ou [b] cujo objeto do perfil seja a prática de atividade em si criminosa.

III. As plataformas em geral, tais como mecanismos de busca, marketplaces etc., tem o dever de promover a identificação do usuário violador de direito de terceiro (art. 15 c/c art. 22 do MCI). Observado o cumprimento da referida exigência, o particular diretamente responsável pela conduta ofensiva é quem deve ser efetivamente responsabilizado via ação judicial contra si promovida.

IV. Nos casos em que admitida a remoção de conteúdo sem ordem judicial (por expressa determinação legal ou conforme previsto nos Termos e Condições de Uso das plataformas), é preciso assegurar a observância de protocolos que assegurem um procedimento devido, capaz de garantir a possibilidade do usuário [a] ter acesso às motivações da decisão que ensejou a exclusão, [b] que essa exclusão seja feita preferencialmente por humano [uso excepcional de robôs e inteligência artificial no comando de exclusão]; [c] possa recorrer da decisão de moderação, [d] obtenha resposta tempestiva e adequada da plataforma, dentre outros aspectos inerentes aos princípios processuais fundamentais.

V. Excetuados os casos expressamente autorizados em lei, as plataformas digitais não podem ser responsabilizadas pela ausência de remoção de conteúdo veiculado por terceiro, ainda que posteriormente qualificado como ofensivo pelo Poder Judiciário, aí incluídos os ilícitos relacionados à manifestação de opinião ou do pensamento.

VI. Há possibilidade de responsabilização, por conduta omissiva ou comissiva própria, pelo descumprimento dos deveres procedimentais que lhe são impostos pela legislação, aí incluída [a] a obrigação de aplicação isonômica, em relação a todos os seus usuários, das regras de conduta estabelecidas pelos seus Termos e Condições de Uso, os quais devem guardar conformidade com as disposições do Código de Defesa do Consumidor e com a legislação em geral; e [b] a adoção de mecanismos de segurança digital aptos a evitar que as plataformas sejam utilizadas para a prática de condutas ilícitas.

VII. Em observância ao devido processo legal, a decisão judicial que determinar a remoção de conteúdo [a] deve apresentar fundamentação específica, e, [b] ainda que proferida em processo judicial sigiloso, deve ser acessível à plataforma responsável pelo seu cumprimento, facultada a possibilidade de impugnação."

Veja o momento da propositura da tese:

STORINO & BELCHIOR ADVOGADOS
STORINO & BELCHIOR ADVOGADOS

O escritório STORINO & BELCHIOR ADVOGADOS é especialista em Direito do Trabalho, atuando na defesa dos interesses dos trabalhadores e empresas, sempre pautados pela ética, responsabilidade e excelência técnica. Nosso compromisso é oferecer um atendimento personalizado e soluções jurídicas...

RAUL BARCELO SOCIEDADE INDIVIDUAL DE ADVOCACIA
RAUL BARCELO SOCIEDADE INDIVIDUAL DE ADVOCACIA

Diligências e audiências na cidade de São Paulo-SP

ADRIANA MARTINS SOCIEDADE INDIVIDUAL DE ADVOCACIA
ADRIANA MARTINS SOCIEDADE INDIVIDUAL DE ADVOCACIA

Nosso escritório é formado por uma equipe de advogados especializados, nas áreas mais demandas do direito, como direito civil, trabalhista, previdenciário e família. Assim, produzimos serviços advocatícios e de consultoria jurídica de qualidade, com muito conhecimento técnico e jurídico. A...