MIGALHAS QUENTES

  1. Home >
  2. Quentes >
  3. STF tem sete votos para ampliar responsabilidade de redes sociais
Supremo | Sessão

STF tem sete votos para ampliar responsabilidade de redes sociais

Ministros analisam a validade do art. 19 do marco civil da internet.

Da Redação

quinta-feira, 12 de junho de 2025

Atualizado às 18:20

Nesta quinta-feira, 12, o plenário do STF retomou o julgamento da constitucionalidade do art. 19 do marco civil da internet (lei 12.965/14), que condiciona a responsabilidade civil das plataformas digitais à existência de ordem judicial prévia para a remoção de conteúdos gerados por terceiros.

A análise ocorre no âmbito de dois recursos extraordinários com repercussão geral reconhecida - RE 1.037.396 (Tema 987) e RE 1.057.258 (Tema 533)

Durante a sessão, ministro Alexandre de Moraes apresentou voto, posicionando-se a favor da possibilidade de responsabilização das plataformas independentemente de ordem judicial anterior.

Com esse posicionamento, já são sete os ministros que defendem a ampliação da responsabilidade das chamadas big techs.

Ainda faltam os votos da ministra Cármen Lúcia e dos ministros Edson Fachin e Nunes Marques.

Devido ao adiantado da hora, a sessão foi suspensa e será retomada no próximo dia 25.

Segundo informou o presidente da Corte, ministro Barroso, após a conclusão dos votos, a análise será novamente interrompida para a formulação e consolidação das teses, com o objetivo de unificar os entendimentos prevalecentes ao longo das sessões.

O que está em debate?

O art. 19 do marco civil prevê que os provedores de aplicações só respondem por danos se, após ordem judicial específica, não retirarem o conteúdo apontado como ilícito.

A controvérsia está na constitucionalidade dessa exigência, especialmente diante de casos de ilicitude manifesta - como discursos de ódio, deepfakes ou ameaças à integridade física, ou moral.

O STF analisa se esse dispositivo viola a CF por restringir indevidamente o direito à reparação de danos e favorecer a impunidade em ambientes digitais. Também se avalia se determinadas situações justificam a responsabilização direta das plataformas, mesmo sem ordem judicial, como em casos de contas falsas ou impulsionamento pago de conteúdo ofensivo.

Votos até o momento

Os relatores, ministros Dias Toffoli e Luiz Fux, votaram pela inconstitucionalidade do art. 19, defendendo que plataformas digitais podem ser responsabilizadas independentemente de ordem judicial, sobretudo em casos graves, como perfis falsos, discurso de ódio e desinformação.

Ambos também sugeriram deveres objetivos de cuidado e reconheceram que conteúdos impulsionados ou oriundos de contas inautênticas devem ensejar responsabilização direta.

Ministro Luís Roberto Barroso adotou uma posição intermediária: manteve a exigência de ordem judicial para crimes contra a honra, mas admitiu notificação extrajudicial para ilícitos evidentes.

Defendeu um sistema dual com dever de cuidado em relação a riscos sistêmicos (como terrorismo e pornografia infantil) e propôs relatórios de transparência nos moldes europeus, além da necessidade de futura regulação pelo Congresso.

Ministro André Mendonça votou pela constitucionalidade do art. 19, valorizando o devido processo legal e a liberdade de expressão. Propôs modelo de autorregulação regulada, com protocolos internos de moderação e transparência.

Votou para que remoções de conteúdo e suspensões de perfis ocorram apenas com base legal ou judicial e alertou para os riscos da moderação automatizada.

Ministro Flávio Dino defendeu modelo segmentado, com notificação extrajudicial para conteúdos ilícitos evidentes, ordem judicial para crimes contra a honra e responsabilização direta das plataformas por atos próprios, como impulsionamento pago e perfis inautênticos.

Sugeriu deveres procedimentais mínimos, educação digital e relatórios de transparência, sem necessidade de novo órgão regulador.

Ministro Zanin reconheceu a inconstitucionalidade parcial do art. 19, por considerar que a exigência de ordem judicial para remoção de conteúdo oferece proteção insuficiente diante da disseminação de conteúdos ilícitos.

Propôs regime diferenciado: notificação extrajudicial para conteúdos manifestamente ilícitos (art. 21), ordem judicial para casos complexos (art. 19), além de deveres de cuidado, regras procedimentais e modulação dos efeitos da decisão.

Gilmar Mendes também reconheceu a superação do modelo atual, ressaltando que o art. 19 parte de um paradigma ultrapassado, que ignora a atuação ativa das plataformas na curadoria de conteúdo.

Propôs quatro regimes distintos de responsabilidade, a depender do grau de interferência da plataforma, com destaque para hipóteses de presunção em conteúdos patrocinados e responsabilização direta em casos graves.

Defendeu ainda obrigações procedimentais e atribuição da fiscalização à ANPD.

Ministro Alexandre de Moraes defendeu a responsabilização solidária das plataformas por conteúdos impulsionados, veiculados por contas inautênticas ou não removidos quando ilícitos.

Equiparou legalmente as redes sociais aos meios de comunicação, propôs deveres de transparência algorítmica, sede obrigatória no Brasil e mecanismos preventivos inspirados na legislação europeia. 

Veja um resumo dos votos:

Casos concretos

Já há um resultado provisório quanto aos casos concretos analisados, destacando que a definição das teses jurídicas permanece pendente.

No RE 1.037.396, relatado pelo ministro Dias Toffoli, sete ministros votaram por negar provimento ao recurso: o próprio relator, além de Luiz Fux, Luís Roberto Barroso, André Mendonça, Flávio Dino, Gilmar Mendes e Cristiano Zanin.

O caso trata da responsabilização do Facebook por permitir a manutenção de um perfil falso com conteúdo ofensivo, mesmo após notificação. A usuária prejudicada obteve indenização na instância inferior, e a empresa recorreu ao STF sustentando a constitucionalidade do art. 19 do Marco Civil da Internet.

Já no RE 1.057.258, sob relatoria do ministro Luiz Fux, o resultado parcial apontou divergência. Negaram provimento o relator e o ministro Dias Toffoli. Em sentido contrário, votaram pelo provimento os ministros André Mendonça, Flávio Dino, Cristiano Zanin e Gilmar Mendes. Um dos ministros manifestou-se apenas quanto à tese geral, sem votar no caso específico.

O recurso discute a responsabilidade do Google pela permanência de uma página ofensiva hospedada no extinto Orkut. A empresa foi condenada nas instâncias inferiores e levou o caso ao STF, igualmente defendendo a validade do art. 19.

Impunidade

Nesta quinta-feira, 12, ministro Alexandre de Moraes ao votar, defendeu a responsabilização das plataformas digitais e criticou a ideia de que as big techs estariam acima das leis nacionais.

Para o ministro, as redes sociais deixaram de ser meras intermediárias tecnológicas e devem ser tratadas como empresas de comunicação, sujeitas aos mesmos deveres constitucionais.

"Temos que nos perguntar se as big techs possuem uma cláusula absoluta de impunidade", disse, ao argumentar que a liberdade de expressão não pode ser usada como escudo para práticas criminosas.

Moraes exibiu publicações racistas e homofóbicas no telão do plenário, afirmando:

"Isso não é utilização da liberdade de expressão, isso é crime."

O ministro também rebateu críticas que classificam a regulação como autoritária e invocou a obra de John Stuart Mill para demonstrar que a liberdade de expressão não é absoluta.

"Dizem que somos ditadores porque queremos cercear o chamado mercado livre de ideias, idealizado por John Stuart Mill. E quem diz isso jamais leu John Stuart Mill", ironizou.

"Você dá um Google e vem uma frasezinha lá, então você virou culto."

Segundo S. Exa., há consenso na Corte de que o art. 19 deve ser reinterpretado à luz dos princípios constitucionais e da realidade tecnológica.

O ministro defendeu que a Corte adote interpretação constitucional condizente com os avanços tecnológicos e com a proteção dos direitos fundamentais. Segundo Moraes, redes sociais e serviços de mensageria privada têm sido utilizados para alimentar "inconstitucionalização silenciosa", promovida por discursos de ódio, desinformação e manipulação digital.

Moraes argumentou que o modelo atualmente adotado - no qual as plataformas se limitam a alegar que apenas intermediam conteúdos - tornou-se insustentável diante da complexidade tecnológica.

"As big techs sabem o que você lê, o que você compra, o que você come... Nenhum regime totalitário jamais teve tantos dados sobre as pessoas quanto essas empresas têm", declarou.

Propôs tese para equiparar legalmente as redes sociais aos meios de comunicação, responsabilizando-as solidariamente por conteúdos impulsionados mediante pagamento, por redes automatizadas (robôs) e por omissão diante de discursos de ódio.

Defendeu ainda que as plataformas tenham sede no Brasil, adotem transparência algorítmica e mecanismos preventivos para evitar manipulações - a exemplo da regulação vigente na União Europeia.

Novo regramento

Ao votar, ministro Gilmar Mendes defendeu a superação do modelo de responsabilidade mitigada das plataformas digitais e propôs um novo marco regulatório.

Segundo o decano da Corte, gigantes como Google, Facebook e Amazon deixaram de ser meras transmissoras de conteúdo e atuam hoje como verdadeiros reguladores do discurso público.

"O paradigma de neutralidade com relação ao conteúdo foi completamente superado", afirmou Gilmar, ao destacar que essas plataformas interferem ativamente na circulação de informações, promovendo ou restringindo conteúdos por meio de algoritmos.

Essa atuação, disse o ministro, não é neutra, mas orientada por modelos de negócio voltados à maximização do engajamento e à monetização da atenção dos usuários.

Gilmar endossou os votos dos ministros Toffoli, Fux, André Mendonça, Flávio Dino e Cristiano Zanin, para quem o art. 19 - que condiciona a responsabilização das plataformas à existência de ordem judicial - tornou-se defasado.

"Embora o dispositivo tenha sido de inegável importância para a construção de uma internet plural e aberta, hoje se mostra, a meu ver, ultrapassado", declarou.

Para S. Exa., a autorregulação atualmente praticada pelas plataformas é insuficiente. Propôs, por isso, quatro regimes distintos de responsabilização, a depender do grau de interferência da plataforma sobre o conteúdo:

  • Regime residual - Mantém a necessidade de ordem judicial apenas para conteúdos jornalísticos e crimes contra a honra.
  • Regime geral - Responsabiliza a plataforma que, notificada, se omite diante de conteúdo ilícito, inclusive quando não remove conteúdos idênticos a outros já removidos por decisão judicial.
  • Regime de presunção - Presume responsabilidade da plataforma por conteúdos veiculados em anúncios pagos e impulsionamentos, dispensando notificação.
  • Regime especial - Prevê responsabilização solidária pela não remoção imediata de conteúdos e contas que divulguem crimes graves, como atos antidemocráticos, discurso de ódio, ameaças à Justiça Eleitoral, incitação ao suicídio ou terrorismo.

Além disso, o ministro defendeu a criação de um órgão regulador - com destaque para a ANPD - para fiscalizar obrigações procedimentais como relatórios de transparência, sistemas de notificação, repositórios de anúncios e canais de recurso para usuários atingidos por medidas de moderação.

Proteção insuficiente

Ministro Cristiano Zanin votou pela inconstitucionalidade parcial - ou interpretação conforme - do art. 19 do marco civil da internet.

Para S. Exa., ao exigir ordem judicial para responsabilizar provedores, o dispositivo oferece proteção insuficiente frente aos direitos fundamentais ameaçados pela disseminação de conteúdos ilícitos.

Zanin criticou premissas que embasaram a norma, como a suposta neutralidade das plataformas e a eficácia da autorregulação. Segundo ele, essas premissas não se confirmaram: algoritmos e políticas de engajamento reforçam a circulação de desinformação, comprometendo o Estado Democrático de Direito.

Ressaltou que a liberdade de expressão não é absoluta e que a literalidade do art. 19 viola o princípio da proporcionalidade. Sugeriu modelo de responsabilidade subjetiva diferenciada: provedores ativos responderiam após notificação (art. 21), enquanto provedores neutros e imprensa, apenas após decisão judicial.

Aderiu aos deveres de cuidado propostos por Toffoli e defendeu que plataformas devem prevenir riscos sistêmicos.

Também propôs modulação dos efeitos para que a nova interpretação só se aplique a fatos futuros. Nos casos concretos, votou por afastar a condenação do Facebook, dado o marco temporal da modulação.

Veja a proposta de tese:

"1. O art. 19 da Lei nº 12.965/2014 (Marco Civil da Internet), que exige ordem judicial específica para a responsabilização civil de provedor de aplicações de internet por danos decorrentes de conteúdo gerado por terceiros, é parcialmente inconstitucional. Há um estado de omissão parcial que decorre do fato de que a regra geral do art. 19 não confere proteção suficiente a bens jurídicos constitucionais de alta relevância (proteção de direitos fundamentais e da democracia).

2. Enquanto não sobrevier legislação, em interpretação conforme à Constituição, a responsabilização civil de provedores de aplicações de internet deve se sujeitar ao seguinte regime, ressalvadas as disposições específicas da legislação eleitoral e os atos normativos expedidos pelo TSE:

2.1 O regime de decisão judicial e retirada do art. 19 do Marco Civil da Internet aplica-se (i) aos provedores de aplicação intermediários de conteúdo gerado por terceiros considerados neutros; (ii) e, aos provedores de aplicação ativos, apenas nos casos de publicação, pelo usuário, de conteúdo não manifestamente criminoso.

2.2. O regime de notificação extrajudicial e retirada, do art. 21 do MCI, deve ser estendido aos provedores de aplicação intermediários que atuam ativamente na promoção e disseminação de conteúdo e, após serem notificados, deixam de remover conteúdo manifestamente criminoso. Considera-se observado o dever de cuidado quando, após a notificação, o provedor de aplicação executa mecanismos efetivos de prevenção e controle para checar a veracidade das alegações e mitigar danos. Caso se trate de conteúdo de ilicitude duvidosa ou que dependa de juízos de valor para aferir a sua ilicitude, considera-se cumprido o dever de cuidado se, adotados tais mecanismos, o provedor é capaz de demonstrar que não há evidente caráter ilícito do conteúdo e que deverá prevalecer, então, a livre manifestação do pensamento. Quando houver elementos objetivos que demonstrem que o conteúdo é ilícito, surge para os provedores de aplicação o dever de agir para excluí-lo. Esse dever abrange a publicação de conteúdos comprovadamente fraudulentos, como perfis falsos ou invasões de contas.

2.3. No caso de anúncios e impulsionamentos, presume-se o conhecimento do ilícito desde a aprovação da publicidade pela plataforma, sendo possível a responsabilização independente de notificação, salvo quando a plataforma comprove que atuou diligentemente e em tempo razoável para indisponibilizar o conteúdo. Também haverá presunção relativa de conhecimento, a ensejar a responsabilização civil, nos casos de danos provocados por chatbots (robôs).

3. A responsabilidade civil nesses regimes ésubjetiva. Em todo caso, os provedores não poderão ser responsabilizados civilmente quando houver dúvida razoável sobre a ilicitude dos conteúdos.

4. Estão excluídos do âmbito de aplicação do regime específico previsto nos arts. 18 a 21 do Marco Civil da Internet os provedores de aplicação intermediários de fornecimento de produtos e serviços (Marketplaces e assemelhados).

5. Os provedores de aplicações de internet deverão manter um sistema de notificações, definir um devido processo e publicar relatórios anuais de transparência em relação a notificações extrajudiciais e anúncios e impulsionamento, além de promover ações de educação digital. 

6. Além disso, os provedores de aplicações de internet estão submetidos a um dever de cuidado de que decorre a obrigação de prevenir e mitigar riscos sistêmicos criados ou potencializados por suas atividades, a ser cumprido por meio de mecanismos fidedignos de avaliação do conteúdo que conjuguem atos humanos e agentes de inteligência artificial. As plataformas devem atuar proativamente para que estejam livres dos seguintes conteúdos extraordinariamente nocivos:

(i) pornografia infantil e crimes graves contra vulneráveis;

(ii) induzimento, instigação ou auxílio a suicídio ou a automutilação;

(iii) tráfico de pessoas;

(iv) atos de terrorismo;

(v) abolição violenta do Estado Democrático de Direito e golpe de Estado.

A responsabilização nesses casos pressupõe uma falha sistêmica, e não meramente a ausência de remoção de um conteúdo.

7. Em casos de remoção de conteúdo pela plataforma em razão do cumprimento dos deveres inerentes ao item 6, o autor do conteúdo poderá requerer judicialmente o seu restabelecimento, mediante demonstração da ausência de ilicitude. Ainda que o conteúdo seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor.

8. Quanto ao dever de mitigação de riscos sistêmicos, caberá ao Congresso Nacional regular o tema, inclusive com definição de sanções e órgão regulador independente e autônomo, a ser criado.

9. Os provedores de aplicação de internet que possuem papel ativo deverão criar ou indicar, no prazo de 180 dias, uma entidade de natureza privada que possa promover a autorregulação regulada, inclusive com a atribuição de desenvolver mecanismos de inteligência artificial destinados à remoção de conteúdos ilícitos das mais diversas formas e desenvolver e difundir ações de educação digital.

10. Para privilegiar a segurança jurídica, atribui-se efeitos prospectivos à interpretação proposta. Desse modo, para os casos posteriores à vigência da Lei n. 12.965/2014 e anteriores ao trânsito em julgado da presente decisão, deve ser aplicado o regime de imunidade originalmente definido pelo Marco Civil da Internet, que exceptua o modelo de exclusão após decisão judicial apenas nos casos de conteúdo íntimo de nudez ou atos sexuais e violação de direito autoral."

Tecnodeterminismo

Ministro Flávio Dino criticou o impacto social das redes sociais e defendeu um modelo constitucional de liberdade baseado na responsabilidade.

{EMBED_LEIAMAISCOD_8840}

Para S. Exa., a ideia de que qualquer regulação compromete a liberdade de expressão é "absolutamente falsa" e distorce o liberalismo clássico, que também prevê limites a poderes privados abusivos.

Dino compartilhou experiências pessoais, como o episódio dos ataques a escolas em 2023 e a leitura de um livro sobre os riscos da internet para adolescentes, para ilustrar a urgência de uma regulação eficaz.

Afirmou que consultou a Meta IA e, que, a partir da resposta da tecnologia, "até o algoritmo sabe" que liberdade sem responsabilidade representa um perigo - e que não há espaço para autorregulação privada sem controle constitucional.

Ao final, Dino propôs a seguinte tese:

"1. O provedor de aplicações de internet poderá ser responsabilizado civilmente nos termos do art. 21 da Lei nº 12.965/2014 (Marco Civil da Internet), pelos danos decorrentes de conteúdos gerados por terceiros, ressalvadas as disposições específicas da legislação eleitoral e os atos normativos expedidos pelo TSE. O regime do art. 19 da citada lei aplica-se exclusivamente a alegações de ofensas e crimes contra a honra. 

2. São considerados atos dos próprios provedores de aplicação de internet, podendo haver responsabilidade civil, independente de prévia notificação judicial ou extrajudicial, nos termos do art. 927, "caput", do Código Civil:

A) Postagens de perfis com anonimização do usuário, vedada pelo art. 5°, IV, da Constituição Federal, que gere obstáculos à responsabilização, incluindo perfis falsos e chatbots (robôs); 

B) Ilicitudes veiculadas em anúncios pagos e postagens patrocinadas, ou mecanismos similares. 

3. Na hipótese de configuração de falha sistêmica, os provedores podem ser responsabilizados civilmente nos termos do art. 14, § 1º, II, do Código de Defesa do Consumidor, pelos conteúdos criados por terceiros nos seguintes casos, em rol taxativo:

A) Crimes contra crianças e adolescentes;

B) Crime de induzimento, instigação ou auxílio ao suicídio ou à automutilação previsto no art. 122 do Código Penal;

C) Crime de terrorismo, nos termos da Lei nº 13.260/2016;

D) Fazer apologia ou instigar violência, ou grave ameaça, visando à prática dos crimes contra o Estado Democrático de Direito devidamente tipificados em lei.

3.1. Para fins da responsabilidade civil prevista neste item, considera-se falha sistêmica, imputável ao provedor de aplicações de internet, deixar de adotar adequadas medidas de segurança contra os conteúdos ilícitos anteriormente listados, configurando violação aos deveres específicos de prevenção e precaução, assim como do dever de cuidado necessário aos provedores citados.

3.2 Consideram-se adequadas as medidas que, conforme o estado da técnica, forneçam os níveis mais elevados de segurança para o tipo de atividade desempenhada pelo provedor. 

3.3 A existência de conteúdo ilícito de forma atomizada e isolada não é, por si só, suficiente para configurar a responsabilidade civil de acordo com este item. Contudo, uma vez recebida notificação extrajudicial sobre a ilicitude, passará a incidir a regra estabelecida no artigo 21 da Lei nº 12.965/2014 (Marco Civil da Internet).

3.4 Em tais hipóteses, o autor do conteúdo poderá requerer judicialmente o seu restabelecimento, mediante demonstração da ausência de ilicitude. Ainda que o conteúdo seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor.

4. Os provedores de aplicações de internet deverão editar autorregulação que abranja, necessariamente, um sistema de notificações, um devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamento.

4.1 Tais regras deverão ser publicadas e revisadas periodicamente, de forma transparente e acessível ao público.

4.2 As obrigações mencionadas neste item 4 serão monitoradas pela Procuradoria Geral da República, até que sobrevenha lei específica regulando a autorregulação dos provedores de aplicação de internet."

Pela inconstitucionalidade - I

Em dezembro de 2024, o relator Dias Toffoli votou pela declaração de inconstitucionalidade do art. 19. Para S. Exa., a norma concede imunidade excessiva às plataformas, favorecendo a disseminação de conteúdos nocivos. Defendeu que o mesmo rigor jurídico aplicado ao mundo físico deve prevalecer no ambiente digital.

Toffoli propôs a responsabilização objetiva em casos graves, como perfis falsos ou ameaças à integridade eleitoral, admitindo notificações extrajudiciais como suficientes.

Ressalvou, porém, que e-mails, ferramentas de reuniões online e blogs jornalísticos devem seguir regimes próprios - no caso da imprensa, a lei do direito de resposta (lei 13.188/15).

Também defendeu a possibilidade de aplicação retroativa da responsabilização, em nome da proteção de direitos fundamentais.

O ministro sugeriu a seguinte tese:

"I. É inconstitucional o art. 19, caput, e o § 1º do marco civil da internet, sendo inconstitucionais, por arrastamento, os demais parágrafos do art. 19.

II. Como regra, o provedor de aplicações de internet será responsabilizado civilmente nos termos do art. 21, pelos danos decorrentes de conteúdos gerados por terceiros, inclusive na hipótese de danos à intimidade, à vida privada, à honra e à imagem, quando notificado pelo ofendido ou seu representante legal, preferencialmente pelos canais de atendimento, deixar de promover em prazo razoável as providências cabíveis, ressalvadas as disposições da legislação eleitoral e os atos normativos do Tribunal Superior Eleitoral.

III. O provedor de aplicações de internet responde civilmente de forma objetiva, e independentemente de notificação pelos danos decorrentes de conteúdos gerados por terceiros, nas seguintes hipóteses:

quando recomendem ou impulsionem de forma remunerada, ou não, os conteúdos;

quando se tratar de conta inautêntica;

quando se tratar de direitos do autor e conexos; e

quando configurarem práticas previstas em rol taxativo.

IV. Os provedores que funcionarem como marketplaces, respondem objetiva e solidariamente com o respectivo anunciante nas hipóteses de anúncios de produtos de venda proibida ou sem certificação, ou homologação pelos órgãos competentes."

Toffoli ainda previu um conjunto de deveres anexos, de transferência, de devido processo e outras providências.

E por fim, afirmou que os provedores de aplicações de internet com sede no exterior e atuação no Brasil, devem constituir representante no país. 

Pela inconstitucionalidade - II

Na mesma linha, Luiz Fux considerou o art. 19 inconstitucional, criticando o modelo que condiciona a responsabilidade à ordem judicial específica.

Ressaltou que, diferentemente da imprensa tradicional, as plataformas não se submetem a mecanismos de verificação prévia, o que favorece a propagação de danos à dignidade humana.

Fux defendeu que, diante da evidência da ilicitude ou após notificação idônea, as plataformas devem ser responsabilizadas. Em casos como racismo, pedofilia ou apologia ao golpe de Estado, sustentou que as empresas têm o dever de monitoramento ativo. Já em relação a conteúdos que ferem honra ou privacidade, sugeriu responsabilização após notificação fundamentada.

Além disso, afirmou que, quando o conteúdo ofensivo é impulsionado por pagamento, presume-se o conhecimento da ilicitude por parte da plataforma.

O ministro sugeriu a seguinte tese:

"1. A disposição do art. 19 do Marco Civil da Internet (Lei Federal nº 12.965/2014) não exclui a possibilidade de responsabilização civil de provedores de aplicações de internet por conteúdos gerados por terceiros nos casos em que, tendo ciência inequívoca do cometimento de atos ilícitos, seja porquanto evidente, seja porque devidamente informados por qualquer meio idôneo, não procederem à remoção imediata do conteúdo.

2. Considera-se evidentemente ilícito (item 1) o conteúdo gerado por terceiro que veicule discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e apologia ao Golpe de Estado. Nestas hipóteses específicas, há para as empresas provedoras um dever de monitoramento ativo, com vistas à preservação eficiente do Estado Democrático de Direito.

3. Nos casos de postagens ofensivas à honra, à imagem e à privacidade de particulares, a ciência inequívoca da ilicitude por parte das empresas provedoras, necessária à responsabilização civil, dependerá de sua prévia e fundamentada notificação pelos interessados, que poderá ser realizada por qualquer meio idôneo, cabendo às plataformas digitais o dever de disponibilizar meios eletrônicos eficientes, funcionais e sigilosos para o recebimento de denúncias e reclamações de seus usuários que se sintam lesados. 

4. É presumido, de modo absoluto, o efetivo conhecimento da ilicitude do conteúdo produzido por terceiros por parte da empresa provedora de aplicações de internet, nos casos de postagens onerosamente impulsionadas."

Posição intermediária

Ministro Luís Roberto Barroso propôs solução de equilíbrio. Embora reconheça a inconstitucionalidade parcial do art. 19, sugeriu ajustes que mantenham a regra geral com exceções ampliadas.

Propôs um sistema dual: de um lado, responsabilidade subjetiva para conteúdos gerados por terceiros; de outro, dever de cuidado em relação a riscos sistêmicos, como pornografia infantil, tráfico de pessoas e terrorismo.

Para crimes contra a honra, defendeu a exigência de ordem judicial como salvaguarda à liberdade de expressão. Para os demais ilícitos, admitiu a remoção com base em notificação privada.

Barroso também apelou ao Congresso Nacional para aprovar um marco regulatório que discipline a mitigação de riscos sistêmicos, com exigência de auditorias, relatórios e supervisão por órgão autônomo.

Enquanto isso não ocorre, sugeriu que as plataformas publiquem relatórios anuais de transparência, nos moldes do Digital Services Act europeu.

Ao final, sugeriu a seguinte tese:

"I. O art. 19 é só parcialmente inconstitucional. A exigência de ordem judicial para remoção de conteúdo continua a valer, mas é insuficiente.

II. Nos casos de crime, exceto de crimes contra a honra, notificação extrajudicial, nos casos de crime, exceto de crimes contra a honra, deve ser suficiente para a remoção de conteúdo. 

III. Nos casos de crimes contra a honra e de ilícitos civis em geral, continua a se aplicar a exigência de ordem judicial para a remoção. 

IV. As empresas têm o dever de cuidado de evitar que determinados conteúdos cheguem ao espaço público, independentemente de ordem judicial ou de notificação privada: pornografia infantil e crimes graves contra crianças e adolescentes, induzimento, instigação ou auxílio a suicídio ou automutilação, tráfico de pessoas, atos de terrorismo, abolição violenta do Estado Democrático de Direito e golpe de Estado.

V. Nos casos referidos no item IV acima, a responsabilização pressupõe uma falha sistêmica e não meramente a ausência de remoção de um conteúdo específico.

VI. Nos casos de anúncio ou impulsionamento pago, o conhecimento efetivo do conteúdo ilícito é presumido desde a aprovação da publicidade. Caso o provedor não adote providências em tempo razoável poderá ser responsabilizado ainda que não tenha havido notificação privada."

Por fim, previu deveres anexos como canal de comunicação, devido processo e relatórios de transparência. 

Voto-vista 

No voto-vista apresentado em 5 de junho, o ministro André Mendonça propôs atualização do paradigma jurídico da liberdade de expressão para o contexto digital, defendendo regulação segmentada conforme o tipo de serviço (como redes sociais, aplicativos de mensagem e marketplaces) e baseada em deveres de diligência, não em resultados.

Crítico à moderação automatizada, alertou para riscos de censura indireta e defendeu que a responsabilização das plataformas deve se pautar por procedimentos e governança, e não por conteúdos isolados.

Propôs modelo de autorregulação regulada, com compliance e transparência, capaz até de afastar a responsabilidade das empresas.

Também destacou que a suspensão de perfis só deve ocorrer com base legal ou judicial, como exceção, em respeito ao devido processo e à personalidade digital do indivíduo.

Ao final, o ministro sugeriu a seguinte tese de julgamento:

"I. Serviços de mensageria privada não podem ser equiparados à mídia social. Em relação a tais aplicações de internet, prevalece a proteção à intimidade, vida privada, sigilo das comunicações e proteção de dados. Portanto, não há que se falar em dever de monitoramento ou autorregulação na espécie.

II. É inconstitucional a remoção ou a suspensão de perfis de usuários, exceto quando [a] comprovadamente falsos - seja porque (i) relacionados a pessoa que efetivamente existe, mas denuncia, com a devida comprovação, que não o utiliza ou criou; ou (ii) relacionados a pessoa que sequer existe fora do universo digital ("perfil robô"); ou [b] cujo objeto do perfil seja a prática de atividade em si criminosa.

III. As plataformas em geral, tais como mecanismos de busca, marketplaces etc., tem o dever de promover a identificação do usuário violador de direito de terceiro (art. 15 c/c art. 22 do MCI). Observado o cumprimento da referida exigência, o particular diretamente responsável pela conduta ofensiva é quem deve ser efetivamente responsabilizado via ação judicial contra si promovida.

IV. Nos casos em que admitida a remoção de conteúdo sem ordem judicial (por expressa determinação legal ou conforme previsto nos Termos e Condições de Uso das plataformas), é preciso assegurar a observância de protocolos que assegurem um procedimento devido, capaz de garantir a possibilidade do usuário [a] ter acesso às motivações da decisão que ensejou a exclusão, [b] que essa exclusão seja feita preferencialmente por humano [uso excepcional de robôs e inteligência artificial no comando de exclusão]; [c] possa recorrer da decisão de moderação, [d] obtenha resposta tempestiva e adequada da plataforma, dentre outros aspectos inerentes aos princípios processuais fundamentais.

V. Excetuados os casos expressamente autorizados em lei, as plataformas digitais não podem ser responsabilizadas pela ausência de remoção de conteúdo veiculado por terceiro, ainda que posteriormente qualificado como ofensivo pelo Poder Judiciário, aí incluídos os ilícitos relacionados à manifestação de opinião ou do pensamento.

VI. Há possibilidade de responsabilização, por conduta omissiva ou comissiva própria, pelo descumprimento dos deveres procedimentais que lhe são impostos pela legislação, aí incluída [a] a obrigação de aplicação isonômica, em relação a todos os seus usuários, das regras de conduta estabelecidas pelos seus Termos e Condições de Uso, os quais devem guardar conformidade com as disposições do Código de Defesa do Consumidor e com a legislação em geral; e [b] a adoção de mecanismos de segurança digital aptos a evitar que as plataformas sejam utilizadas para a prática de condutas ilícitas.

VII. Em observância ao devido processo legal, a decisão judicial que determinar a remoção de conteúdo [a] deve apresentar fundamentação específica, e, [b] ainda que proferida em processo judicial sigiloso, deve ser acessível à plataforma responsável pelo seu cumprimento, facultada a possibilidade de impugnação."

STORINO & BELCHIOR ADVOGADOS
STORINO & BELCHIOR ADVOGADOS

O escritório STORINO & BELCHIOR ADVOGADOS é especialista em Direito do Trabalho, atuando na defesa dos interesses dos trabalhadores e empresas, sempre pautados pela ética, responsabilidade e excelência técnica. Nosso compromisso é oferecer um atendimento personalizado e soluções jurídicas...

Flávia Thaís De Genaro Sociedade Individual de Advocacia

Escritório de advocacia Empresarial, Flávia Thaís De Genaro Sociedade Individual de Advocacia atua nas áreas Civil, Tributária e Trabalhista. Presta consultoria em diversos segmentos da Legislação Brasileira, tais como: Escrita Fiscal, Processo Civil e Alterações do Novo Código de 2002, Falências,...

RAUL BARCELO SOCIEDADE INDIVIDUAL DE ADVOCACIA
RAUL BARCELO SOCIEDADE INDIVIDUAL DE ADVOCACIA

Diligências e audiências na cidade de São Paulo-SP