COLUNAS

  1. Home >
  2. Colunas >
  3. Migalhas de Responsabilidade Civil >
  4. STF e o julgamento acerca da constitucionalidade do art. 19, do marco civil da internet

STF e o julgamento acerca da constitucionalidade do art. 19, do marco civil da internet

terça-feira, 15 de julho de 2025

Atualizado às 09:14

Em 26/6/25, chegou ao fim o julgamento dos recursos extraordinários 1.037.396 (Tema 987 da repercussão geral), relatado pelo ministro Dias Toffoli, e 1.057.258 (Tema 533), relatado pelo ministro Luiz Fux. Ficou decidido, por 8 votos a 3, pela inconstitucionalidade parcial e progressiva do art. 19, do marco civil da internet. O que estava em jogo era a obrigatoriedade da notificação judicial específica como requisito para a responsabilização (por omissão) dos provedores de aplicação por conteúdo postado por terceiros.

Sancionado em 2014, o MCI - marco civil da internet - lei 12.965/14 - estabelece princípios, garantias, direitos e deveres para o uso da internet no Brasil. À época, saudado como uma lei caracterizada pela ampla participação popular em sua construção e alinhado com regras de padrão de responsabilidade endossadas por grupos internacionais da sociedade civil e pela literatura de direitos humanos (e.g., Princípios de Manila), o MCI representou um importante papel na validação da internet como um espaço em que a liberdade de expressão era reconhecida como um pressuposto inegociável da atuação em rede. Contudo, dez anos passados, a internet, enquanto espaço de exercício do livre pensamento, tornou-se um ambiente inóspito e, por meio da onipresença das redes sociais, um local de disseminação de discursos que não deveriam ser legitimados pela sua potencialidade danosa. Os avanços da tecnologia, por meio do uso de algoritmos de recomendação e perfilamento de usuários da rede, disseminação de contas inautênticas, impulsionamento de conteúdos ilícitos, e uso tolerado de bots, transformou a internet num espaço dominado por uma lógica de mercado, que trabalha a serviço de um "ecossistema de publicidade digital". O tráfego orgânico de dados foi capturado pelo uso de links patrocinados e outras técnicas publicitárias que impõem ao usuário da rede um conhecimento cada vez mais limitado, por meio dos chamados filtro bolhas, que segmentam informações de acordo com o perfil formatado do usuário. De ambiente de livre circulação de ideias, a internet transformou-se numa máquina de fazer dinheiro com base na exploração de dados pessoais e perfilamento dos usuários, consolidando as bases da chamada economia da atenção. Hoje, os provedores de aplicação são mais do que "anfitriões neutros" - moldando a forma como pensamos, nos informamos e nos organizamos socialmente.

O julgamento no STF utilizou-se deste histórico da Internet para construir um entendimento acerca da responsabilidade dos provedores de aplicação, de forma fragmentada, representado por, pelo menos, quatro teses distintas de interpretação do art. 19. De acordo com a norma, "com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário". Essa norma era excepcionada somente nas hipóteses em que o conteúdo gerado por terceiro infringisse direitos de autor ou contivesse cenas de nudez ou de atos sexuais de caráter privado não autorizados, conforme dispõem o par. 2° do art. 19 e o caput do art. 21, do MCI.

A primeira tese apresentada no julgamento é a da inconstitucionalidade do art. 19, impondo aos provedores de aplicação a responsabilidade civil decorrente de dano causado pelo conteúdo postado por terceiros, pelo mero descumprimento de notificação - não mais judicial - que requer a indisponibilização de conteúdo infringente (notice and take down), à semelhança da regra adotada pelo art. 21 e pelo § 2° do art. 19, ambos do MCI. Assim, em determinadas hipóteses bastaria a notificação do provedor para indisponibilizar o conteúdo, seguida do seu descumprimento, para impor a obrigação de indenizar. As hipóteses seriam as seguintes: (i) divulgação de nudez não consentida (tal como prevista no art. 21), (ii) crimes e atos ilícitos em geral, sem prejuízo do dever de remoção do conteúdo, (iii) contas denunciadas como inautênticas ou falsas; e (iv) conteúdos referentes a crianças.

A segunda tese é a da constitucionalidade e manutenção da regra do art. 19, tal como prevista, isto é, exigindo-se a notificação judicial (judicial notice and take down), em caso de crimes contra a honra, sem prejuízo da possibilidade de remoção por notificação extrajudicial, e ressalvada a hipótese de sucessiva repetição de ilícito já reconhecido por anterior decisão judicial,1 ou quando o conteúdo é disponibilizado por meio de: (i) provedor de serviços de e-mail; (ii) provedor de aplicações cuja finalidade primordial seja a realização de reuniões fechadas por vídeo ou voz; (iii) provedor de serviços de mensageria instantânea, exclusivamente no que diz respeito às comunicações interpessoais, resguardadas pelo sigilo das comunicações (art. 5º, inciso XII, da CF/88).2 A tônica dessa tese é privilegiar a liberdade de expressão, impedir a censura e a remoção de conteúdos lícitos que veiculem críticas e respeitar o sigilo das comunicações.

A terceira tese é a da presunção - relativa - de responsabilidade dos provedores de aplicação, fundamentada no dever de cuidado, que impõe a remoção do conteúdo independentemente de notificação (judicial ou extrajudicial), reconhecendo um dever de monitoramento ativo e atuação proativa por parte dos provedores. Essa tese se aplicará nos casos em que se identifiquem danos causados por: (i) anúncios patrocinados e impulsionamentos pagos, desde que caracterizados por ilicitude; e (ii) rede artificial de distribuição, por meio de chatbot ou robôs. O racional dessa tese é a presunção de que nesses casos a plataforma detinha conhecimento da ilicitude, presunção essa que somente pode ser afastada se comprovado que a plataforma agiu em tempo razoável e com diligência para remover o conteúdo danoso.

A quarta tese que se extrai do julgamento consiste no dever das plataformas de atuar de maneira diligente e proativa - aplicando-se, aqui, o chamado "dever de cuidado" - para que, independentemente de notificação extrajudicial ou ordem judicial, conteúdos que configurem crimes graves específicos não sejam sequer publicados ou compartilhados. Esses crimes graves foram definidos em rol taxativo,3 que inclui condutas e atos antidemocráticos, crimes de terrorismo ou preparatórios de terrorismo, crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação, incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero, crimes praticados contra a mulher em razão da condição do sexo feminino, crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes e tráfico de pessoas.

Nessas hipóteses haverá a responsabilização das plataformas, em decorrência da falha no dever de cuidado e na obrigação proativa na prevenção de tais situações. Sempre bom lembrar que a responsabilidade do provedor é subjetiva. Inclusive, foi afastada da decisão qualquer tipo de interpretação em sentido contrário, tendo sido expressamente excluído o reconhecimento de uma responsabilidade objetiva. Contudo, embora o STF tenha afastado a responsabilidade objetiva, não esclareceu, até o momento, se a responsabilidade a ser aplicada seria subsidiária ou solidária e qual sua extensão. A questão é relevante, já que parte significativa dos ilícitos cometidos nas redes são perpetrados por contas inautênticas ou automatizadas, o que cria obstáculos concretos na reparação em face do causador do dano (aquele que gerou o conteúdo danoso).

Nos casos de circulação massiva de conteúdos ilícitos graves, os provedores de aplicações de internet serão responsabilizados se, configurada falha sistêmica por ausência de medidas adequadas de prevenção ou remoção - segundo o estado da técnica e os mais elevados padrões de segurança -, deixarem de atuar de forma diligente, responsável, transparente e em tempo razoável para tornar indisponíveis anúncios ou conteúdos manifestamente ilícitos. Nesses casos, se entender que sua postagem não configura o ilícito, poderá o responsável pelo conteúdo removido requerer judicialmente seu restabelecimento, sem que isso implique dever de indenizar por parte do provedor, ainda que o conteúdo venha a ser restabelecido por ordem judicial.

Em conclusão, o STF, ao reconhecer a inconstitucionalidade parcial e progressiva do art. 19 do marco civil da internet, estabeleceu um regime temporário de responsabilização dos provedores enquanto o Congresso Nacional não edita legislação específica que supra essa omissão normativa incompatível com a Constituição. De fato, o estabelecimento de um regime temporário de responsabilização pelo STF não afasta o debate sobre a regulação das plataformas digitais. Ao preverem a responsabilidade por conteúdo gerado por terceiro em outras hipóteses não previstas no MCI, estabelecendo ainda um regime de presunção de responsabilidade em certos casos e uma série de deveres adicionais a serem cumpridos pelos provedores, o julgamento do STF reforça o dever de moderação - não apenas reativa, mas também, proativa - das plataformas digitais e, com ele, a necessidade de uma regulação para garantir maior confiabilidade e transparência à moderação de conteúdo nas redes sociais, assegurando uma governança democrática da esfera pública digital. Inclusive, a Corte fez apelo ao legislador para regulamentação definitiva e modulou os efeitos da decisão com eficácia prospectiva. A decisão ressalva a possibilidade de regulação específica em matéria eleitoral, notadamente pelo TSE, e indica a necessidade de cumprimento de deveres adicionais pelos provedores, por meio de autorregulação, como a adoção de mecanismos de autorregulação com notificações, respeito ao devido processo, assegurando que os usuários entendam os fundamentos das decisões de remoção e possam recorrer, publicação de relatórios anuais de transparência sobre conteúdos, anúncios e impulsionamentos, além da oferta de canais de atendimento eficazes e acessíveis ao público e da constituição e manutenção de sede e representante legal no país, para garantir que as plataformas cumpram decisões judiciais, respondam em juízo e por penalidades em razão do descumprimento de obrigações legais e judiciais, assim como prestem informações relevantes às autoridades competentes acerca das políticas, dos procedimentos e sistemas de moderação de conteúdo e da gestão de riscos sistêmicos.

___________

1 Nos casos de crime contra a honra (calúnia, difamação ou injúria), quando determinado ilícito já reconhecido por decisão judicial for repetidamente replicado, o STF previu a obrigação de os provedores de removerem as publicações com conteúdos idênticos a partir da notificação judicial ou extrajudicial, independentemente de novas decisões judiciais.

2 Os provedores de internet que funcionarem como marketplaces, por sua vez, responderão civilmente de acordo com as normas do CDC (lei 8.078/1990).

3 A definição de um rol de crimes taxativos, para fins de estipulação de um dever de monitoramento ativo e atuação proativa das plataformas, tem paralelo tanto na proposta legislativa do "PL da Fake News" (PL 2.630/20), iniciativa de regulamentação que deixou de ter protagonismo no Congresso Nacional em meados de 2024, quanto na regulação alemã aplicável à moderação de conteúdo nas redes sociais ("NetzDG").