Migalhas Quentes

AGU pede ao STF que tese sobre marco civil trate de IA e fraudes

O governo pede que a tese explicite a aplicação dos deveres de prevenção e cuidado dos provedores de internet também a conteúdos ilícitos produzidos ou impulsionados por inteligência artificial.

22/5/2025

A AGU apresentou manifestação ao STF no RE 1.037.396, requerendo que a tese de repercussão geral a ser fixada no Tema 987 explicite a aplicação dos deveres de prevenção e cuidado dos provedores de internet também a conteúdos ilícitos produzidos ou impulsionados por inteligência artificial. O relator do caso é o ministro Dias Toffoli, e o julgamento está sendo realizado em conjunto com o Tema 533, que trata da responsabilidade de plataformas digitais por conteúdos de terceiros.

No documento, protocolado nesta quarta-feira, 21, a AGU defende que os deveres já previstos para provedores de aplicações — como atualização de termos de uso, combate à criação de perfis falsos, mecanismos de moderação e canais de denúncia — devem alcançar também os casos em que há uso de ferramentas de inteligência artificial para difundir desinformação, manipular imagens de autoridades públicas (como em deep fakes) e comprometer políticas públicas e a integridade do processo democrático.

A manifestação tem como base o artigo 19 do marco civil da internet (lei 12.965/14) e visa contribuir para a formulação da tese de repercussão geral a ser fixada no julgamento, no qual se discute se os provedores de aplicações podem ser responsabilizados civilmente pela não remoção de conteúdos ilícitos gerados por terceiros, mesmo sem ordem judicial.

AGU pede ao STF que tese sobre responsabilidade de plataformas inclua uso de inteligência artificial e deep fakes.(Imagem: Freepik)

A AGU destaca que, com o avanço de tecnologias como a inteligência artificial, especialmente no uso de algoritmos para impulsionar ou recomendar conteúdos, tornam-se mais evidentes os riscos sistêmicos de desinformação, manipulação e fraude em ambiente digital. Como exemplo, cita estudo do NetLab/UFRJ, que identificou, entre 10 e 21 de janeiro de 2025, um total de 1.770 anúncios fraudulentos veiculados em plataformas da Meta (Facebook e Instagram), muitos deles com uso de IA e apropriação indevida da imagem de autoridades públicas.

Além da falsificação de imagem, o estudo identificou que parte dos anúncios utilizava o nome e a imagem de agentes públicos para promover falsas oportunidades de investimento com transferências via Pix, simulando ganhos financeiros rápidos e induzindo os usuários ao erro. Os conteúdos foram veiculados como publicidade paga, impulsionada pelas plataformas, e tinham como finalidade a captação indevida de recursos. A AGU considera que esse tipo de prática reforça a necessidade de responsabilização das empresas por não impedirem a disseminação de fraudes evidentes.

Na manifestação enviada ao STF, a AGU defende que, se confirmada a ciência da plataforma sobre o conteúdo ilícito e sua omissão diante disso, deve-se reconhecer sua responsabilidade civil mesmo sem ordem judicial prévia. Essa interpretação, segundo o órgão, está em consonância com a jurisprudência do STF e do STJ sobre o marco civil da internet.

Ao final, a AGU solicita que a tese de repercussão geral registre expressamente que os deveres de cuidado das plataformas abrangem também:

O pedido é assinado pelo advogado-Geral da União, Jorge Messias, e pelos advogados da União Isadora Cartaxo de Arruda, João Bosco Teixeira, Rafael Fernandes Dubra e Pedro Henrique Morais e Silva.

Leia a manifestação.

Veja a versão completa

Leia mais

Migalhas Quentes

MPF oficiará Meta sobre mudanças em regras de moderação no Brasil

8/1/2025
Migalhas Quentes

Barroso diverge em regulação das redes sociais e Mendonça pede vista

18/12/2024
Migalhas Quentes

Fux segue Toffoli e vota pela remoção de conteúdo por redes sem ordem judicial

11/12/2024
Migalhas Quentes

Toffoli propõe tese para que redes removam conteúdo sem ordem judicial

5/12/2024
Migalhas Quentes

Toffoli diz que estímulo ao ódio e inverdades dão lucro às redes sociais

28/11/2024