ChatGPT-5 e o uso de IAG na prática jurídica
sexta-feira, 19 de setembro de 2025
Atualizado em 18 de setembro de 2025 13:25
Em março de 2024, escrevemos algumas reflexões sobre o avanço do ChatGPT e do Gemini no mundo jurídico neste Migalhas de IA e Proteção de Dados - também há no Migalhas de Peso - um artigo muito bom: O Poder Transformador da IA no Direito. Agora, em agosto de 2025, temos alguns avanços na pesquisa sobre a utilização de modelos de IA no fazer jurídico, mas também tivemos avanços tecnológicos importantes para os aplicadores do Direito - sejamos sinceros e devemos aceitar a realidade - modelos de IA estão sendo utilizados por instituições da República, pelo Judiciário, por Advogados e membros do Ministério Público, tanto é que a própria OAB aprova a utilização de modelos de IA.
O aumento do uso da IAG - inteligência artificial generativa no Brasil está diretamente ligado ao grau de confiança depositado na tecnologia pelos brasileiros. De acordo com os dados de uma pesquisa1 encomendada pela Google e realizada pela Ipsos, empresa especializada em pesquisa de mercado e opinião pública, percebe-se que o Brasil está entre os países que mais acredita saber sobre a inteligência artificial, 18% da população entrevistada afirma que sabe de forma aprofundada sobre o assunto. Esta mesma variável revela uma taxa de 4% nos Estados Unidos. A pesquisa ainda mostra como os brasileiros têm utilizado as IAs generativas no cotidiano, 78% usam a tecnologia para ajudar no trabalho, analisar informações complexas e auxiliar na comunicação e escrita. Além disso, cerca de 87% dos entrevistados brasileiros se apoiam na inteligência artificial para a resolução de problemas, taxa que está acima da média total (79%).
Outro dado interessante da pesquisa é que 34% dos brasileiros entrevistados acreditam que as IAs vão permitir realizar seus trabalhos de forma mais efetiva nos próximos 5 anos e 88% dos brasileiros responderam que gostariam que seus empregadores oferecessem treinamento adequado para manipulação de modelos de IA. Por fim, as enquetes apontam uma baixa taxa de preocupação com os riscos do uso e aplicação de IA em apenas 13% dos entrevistados.
Já no Judiciário'brasileiro, uma pesquisa realizada pelo CNJ2 em 2024, demonstrou que a frequência de uso das ferramentas de IAG entre magistrados e servidores do Judiciário é predominantemente baixa ou ocasional. Entre os magistrados, 43% (357) afirmam utilizá-las raramente e 35,3% (293) eventualmente, enquanto apenas 15,2% (126) as empregam frequentemente e 6,6% (55) sempre as utilizam. Entre os servidores, 36,4% (3.038) relataram uso raro e 37,5% (3.127) eventual, contrastando com 19,7% (1.643) que utilizam frequentemente e 6,4% (538) que recorrem a essas ferramentas de forma constante. Esses números indicam que entre 75% e 80% dos que responderam a pesquisa, em ambos os grupos, recorrem à IAG de forma rara ou eventual, demonstrando que o uso constante de IAG ainda é restrito.
Os dados do CNJ mostram que o ChatGPT (OpenAI) é, de forma destacada, a IAG mais utilizada por magistrados e servidores do Judiciário brasileiro, sendo mencionado por 96,4% (801) dos magistrados e 94,5% (7.890) dos servidores. Em seguida, aparecem o Copilot (Microsoft 365), utilizado por 24,7% (205) dos magistrados e 26,4% (2.204) dos servidores, e o Gemini (Google AI), adotado por 23,0% (191) dos magistrados e 28,5% (2.381) dos servidores. O Bing AI (Bing) é usado por 17,6% (146) dos magistrados e 22,6% (1.884) dos servidores. Outras ferramentas, como Claude (Anthropic), LLaMA (Meta), Le Chat (Mistral) e Grok (xAI), apresentam uso marginal, não ultrapassando 3% entre magistrados e 7% entre servidores.
No que diz respeito às finalidades de uso dessas ferramentas, observa-se que magistrados e servidores recorrem majoritariamente à IAG para tarefas amplas e de apoio, como responder a perguntas sobre assuntos diversos (70,9% e 75,5%, respectivamente) e gerar textos (64,5% e 64,7%). Também têm destaque atividades de pesquisa geral (47,7% e 55,6%) e de resumo ou sistematização de textos (47,1% e 42,8%). Funções mais específicas, como tradução de documentos, aperfeiçoamento textual de peças processuais e busca de jurisprudência, apresentam índices intermediários, enquanto usos técnicos e especializados, a exemplo da geração de cálculos judiciais ou da busca de processos com características similares, permanecem restritos a uma pequena parcela dos respondentes.
Mas e o ChatGPT-5? O novo modelo da Open AI foi lançado na primeira semana de agosto de 2025 e sua recepção foi menos calorosa, para não dizer decepcionante, quando do seu lançamento em 2022. Mas a expectativa criada a partir das entrevistas de Sam Altman (CEO da Open AI), desde 2024, foi excessiva. Altman sempre elogiava muito e dizia frases como: "o modelo será revolucionário; o salto de qualidade será o mesmo que ocorreu do GPT-3 para o GPT-4; correções de erros básicos de cálculo matemático, que o GPT-4 cometia, tornarão o GPT-5 incrível; serão incorporadas novas funcionalidades como integração texto, imagem e vídeo, o AI Agent etc".
Ninguém controla as expectativas das pessoas e quando se promete muito e a entrega é boa, mas não incrível, parece que o produto sofre uma derrota. Mas vamos às análises.
- Quanto aos planos de uso:
O GPT-5 ainda possui as duas modalidades de uso pago das versões anteriores, 4o e 4.5: a Pessoal e a de Negócios. Na opção negócios, o valor é de U$ 25 dólares por mês (aproximadamente R$ 125,00); já na versão pessoal há dois planos: (i) o Plano Plus, de U$20/mês (R$ 100,00) e (ii) o Plano Pro, de U$ 200 (aproximadamente R$1.000,00).
- Novidades importantes para o contexto Jurídico:
A versão recente do LLM, o GPT-5, prometeu melhorias em alucinações, o que aconteceu, contudo, essa melhoria não é tão perceptível quanto o anunciado, porque a escrita está ainda mais humanizada, garantindo melhores textos, mas a intenção de agradar ao usuário faz com que alucinações importantes continuem a aparecer. O ponto positivo, é que, em alguns casos, o GPT-5 assume não "entender" determinado assunto.
Outra novidade importante é o AI agent. Essa é uma ferramenta de busca e de execução de tarefas de forma autônoma, expandindo fluxos de trabalho. Um agente de IA faz tomada de decisões, resoluções de problemas, interações com ambiente externos e execução de ações em linguagem natural. Por exemplo, imagine que você quer alugar uma casa para um passeio no litoral de São Paulo pelo melhor preço e, ao selecionar ao AI agent, você sugere o tamanho da casa, localidade, faixa de preço, as datas da estadia e pede para o agente realizar o pagamento, caso encontre o melhor preço. Na tela inicial do GPT-5, abrirá um browser de busca e o AI agent realizará tudo sozinho.
Um exemplo do uso do AI agent no Direito seria buscar julgados, jurisprudências, súmulas, entendimentos jurisprudenciais etc. Contudo, neste exemplo e no exemplo anterior, o portal ou plataforma a ser buscado não pode conter acesso restrito, o que ocorre nos sites de tribunais, por exemplo, e também em plataformas privadas, cujo acesso depende de assinatura, credenciais institucionais ou pagamento prévio. Nessas situações, o AI agent encontra um limite técnico e jurídico, pois não pode transpor barreiras de autenticação ou realizar consultas em ambientes restritos. A sua atuação, portanto, fica vinculada a fontes públicas, abertas e de livre acesso, garantindo tanto a transparência quanto a legalidade da coleta de informações. Com o avanço do uso de modelos de IA pelos próprios tribunais, nada impede que no futuro os portais dos tribunais estejam adaptados ao uso de AI agents.
Ainda assim, o potencial de uso é enorme: em escritórios de advocacia, o AI agent poderia automatizar a busca em bases de legislação, portais de diários oficiais, ou até mesmo em sites de órgãos públicos que disponibilizam dados estruturados. No campo acadêmico, auxiliaria pesquisadores do Direito a compilar literatura especializada, artigos e relatórios de forma dinâmica, sintetizando e organizando o material em relatórios ou mapas conceituais. Já para a gestão processual, o agente poderia interagir com sistemas de acompanhamento de processos de acesso público, extraindo prazos, movimentações e andamentos processuais em tempo real, contudo, os advogados e assistentes jurídicos precisam de treinamento para manipulação dessa tecnologia, tanto para revisão dos dados compilados e possíveis alucinações, quanto para análise de contexto jurídico fático para o uso desses dados.
- Riscos do uso de IAG: GPT-5:
Para além das alucinações clássicas que já inundaram o vocabulário jurídico, salientamos mais 3 riscos que reputamos de suma importância:
- Confidencialidade e sigilo profissional - submeter peças, contratos ou dados sensíveis a uma IAG e depois compartilhar esses dados diretamente do portal do GPT-5, pode expor informações cobertas por sigilo profissional3, segredo de justiça ou cláusulas de confidencialidade. Sem controles coerentes e adequados (p. ex., instância privada, logs auditáveis, criptografia ponta a ponta, DLP), há risco de vazamentos, reidentificação de partes e violação de deveres ético-disciplinares;
- Dependência tecnológica e erro sistêmico - a adoção acrítica de saídas da IAG pode gerar "automatismo decisório", ou seja, o profissional passa a confiar no sistema mesmo quando o contexto recomenda cautela (mudança jurisprudencial, peculiaridades fáticas). Em incidentes de indisponibilidade do site da Open AI, model drift ou atualização opaca do modelo, o escritório ou o operador do Direito pode perder continuidade operacional e replicar erros de forma contínua, além de diminuir a capacidade reflexiva, criativa e decisória deste profissional;
- Responsabilidade e rastreabilidade (accountability) - sem uma pirâmide de responsabilidade escalonada e adequada (fontes, versões de modelo, prompts, verificações humanas), torna-se difícil atribuir responsabilidades por danos causados por aconselhamento defeituoso, uso de citações inexistentes ou violação de direitos. Isso afeta a possibilidade de responsabilidade individual deste profissional, a governança interna e a defesa em eventuais procedimentos disciplinares ou judiciais.
Mediante ao exposto, observa-se a necessidade do cuidado e da atenção para com o uso da inteligência artificial nas atividades jurídicas. O uso crescente da tecnologia tem sido responsável pela dependência de IAs generativas para realização de atividades diárias e laborais. Isso ocorre devido a facilitação das atividades de forma que as pessoas não precisem desenvolver um pensamento crítico ou interpretativo, já que a máquina é capaz de realizar atividades complexas.
Nesse contexto, as pessoas se acostumam com a facilidade e acabam deixando de analisar o resultado. O uso indevido da inteligência artificial no campo jurídico tem resultado em documentos com leis, jurisprudências e princípios inventados ou manipulados. Esses erros são causados pelas alucinações da tecnologia, que ocorrem quando o sistema gera informações irreais sobre a temática ou até mesmo, manipula fatos reais de tal maneira que parecem reais.
Dessa maneira, existe um número crescente de casos de juízes e advogados investigados e acusados de utilizar IAGs para fazerem seus trabalhos e consequentemente, utilizar citações fictícias, criar precedentes inexistentes ou modificar a interpretação da legislação. Frequentemente, surgem na mídia global notícias sobre o uso indevido da inteligência artificial em documentos oficiais por agentes jurídicos. Um caso recente ocorreu na Suprema Corte do estado de Victoria (Austrália). O advogado de defesa, Rishi Natwanide - prestigiado com o título de King's Counsel (título de grande honra em países britânicos) - enviou um documento com citações e jurisprudências falsas, geradas por IAs generativas, em um caso de homicídio envolvendo um adolescente. O ocorrido foi repreendido pelo juíz do caso, que alertou sobre a inadmissibilidade do uso da inteligência artificial sem uma verificação de forma independente e completa. Além disso, muitos outros casos já ocorreram em diversos países.
Já no Brasil, um advogado apelou de uma sentença da 4ª Vara Cível de Osasco alegando que a peça escrita pelo magistrado fora produzida por IAG. O Advogado alegou que usou o ChatGPT para fazer esta avaliação e a resposta da ferramenta fora que "a probabilidade de o texto que você reproduziu ter sido escrito, total ou parcialmente, por uma inteligência artificial é média a grande" e depois trouxe vários argumentos que a IAG produziu para tanto.
Na segunda instância, o desembargador Carlos Ortiz Gomes, da 15ª Câmara de Direito Privado do TJ/SP, acertadamente de que não há, atualmente, ferramentas adequadas para verificação de uso de IAG em textos. O ChatGPT, ou qualquer outro modelo de IAG, não consegue verificar o uso de modelos de IAG para produção de textos. O recurso, sob 1009223-69.2024, foi negado. Este caso demonstra que a grande maioria de advogados, juízes e promotores desconhece preceitos básicos do uso de IAG e acreditam piamente em tudo que o modelo de IAG apresenta. Como demonstramos acima, o uso de modelos de IAG no Direito necessita de treinamento adequado, estudo dos princípios de governança e ética. Em síntese, a inteligência artificial é uma ferramenta revolucionária capaz de oferecer benefícios e inovação para muitos setores, facilitando a realização de atividades, resolução de conflitos e auxílio em pesquisas simples e complexas. Entretanto, existem pontos negativos do uso excessivo da tecnologia, principalmente quando essa é utilizada de forma indevida. Para isso, é necessário compreender que a inteligência artificial deve ser utilizada como um mecanismo facilitador de tarefas e não deve substituir o pensamento humano.
Assim, é de extrema importância a leitura e a verificação da veracidade de tudo que é produzido pela tecnologia, a fim de evitar deslizes como nos casos citados anteriormente. Além disso, o senso crítico e a habilidade de pensar individualmente são características indispensáveis e que, estão sendo afetadas pelo aumento da dependência de tecnologias generativas para realização de tarefas básicas.
_______
1 Disponível aqui.

