Para Laura Schertel, IA no Judiciário não pode afetar acesso à Justiça
Professora ressaltou que sistemas automatizados precisam respeitar a realidade normativa brasileira.
Da Redação
quarta-feira, 2 de julho de 2025
Atualizado em 4 de julho de 2025 11:02
O avanço da inteligência artificial tem levantado debates sobre seus limites e aplicações na Justiça brasileira. Em entrevista à TV Migalhas, a professora de Direito Laura Schertel Mendes defendeu que sua adoção no Judiciário deve ser feita com cautela.
"Quando a gente está falando de Justiça, a gente está falando de algo muito mais, eu diria, sensível. É preciso, sim, usar a inteligência artificial, mas de uma forma que não afete o acesso à Justiça, que não afete o resultado final desses processos."
A docente citou a resolução 615 do CNJ como um marco importante nesse contexto, por ter estabelecido princípios e diretrizes para orientar o uso da tecnologia por magistrados e servidores. Apesar dos avanços, chamou atenção para os riscos envolvidos, como a possibilidade de discriminação algorítmica, conflitos de interesse e imprecisões nos resultados gerados.
"Muitas vezes esses sistemas são treinados com dados relacionados a Direito estrangeiro e não Direito brasileiro. Então, é fundamental que os sistemas de inteligência artificial que estão sendo utilizados hoje pelo Judiciário brasileiro estejam adequados à realidade e ao Direito brasileiro."
Assista:
Marco civil da internet
Na mesma linha de reflexão sobre os impactos da tecnologia no campo jurídico, a professora comentou a recente decisão do STF sobre dispositivos do marco civil da internet, que tratam da responsabilidade das plataformas digitais na remoção de conteúdos.
Segundo Laura, a Corte deu um desfecho necessário a uma longa discussão sobre a interpretação do tema.
"Depois de tantos anos de debate no próprio Supremo, havia uma expectativa de uma resposta sobre esse dispositivo do Marco Civil. [...] Essa resposta tinha que ser dada e o Supremo conseguiu fazer essa resposta de uma forma bastante equilibrada."
A docente destacou dois pontos centrais da decisão e explicou que o STF reafirmou a obrigação das plataformas de agir quando notificadas sobre crimes ou ilícitos, nos termos do art. 21, e manteve a exigência de decisão judicial nos casos que envolvem ofensas à honra, conforme o art. 19.
Segundo ela, as empresas muitas vezes não têm condições de distinguir uma crítica legítima de um crime, o que torna essencial a atuação do Judiciário nesses casos.
Assista:
O evento
O XIII Fórum de Lisboa acontece de 2 a 4 de julho e tem como tema "O mundo em transformação - Direito, Democracia e Sustentabilidade na Era Inteligente". O evento reúne autoridades e acadêmicos de diversas áreas para discutir como a chegada da Era Inteligente tem moldado as relações entre Estados, instituições, empresas e sociedade.