Responsabilidade do advogado pelo uso de conteúdo deturpado gerado por sistema de inteligência artificial
terça-feira, 29 de abril de 2025
Atualizado em 28 de abril de 2025 10:02
A prática jurídica tem sido progressivamente influenciada pelas inovações tecnológicas, notadamente pela adoção de sistemas de inteligência artificial como ChatGPT, Grok, Gemini e Claude, capazes de gerar conteúdo textual com surpreendente similaridade ao discurso humano. Nessa conjuntura, muitos operadores do Direito, em especial os advogados, têm recorrido a tais ferramentas para a elaboração de petições, recursos e demais peças processuais, buscando aumentar a produtividade e a precisão no manejo de informações jurídicas.
É inegável que tais sistemas de inteligência artificial propiciam um manancial extenso de informações, facilitando a pesquisa de legislação, doutrina e jurisprudência de modo a permitir que o advogado se dedique mais à estratégia processual. Todavia, não se pode olvidar que toda produção de conteúdo deve ser rigorosamente revisada pelo profissional, haja vista a possibilidade de equívocos, distorções ou omissões significativas, para evitar a ocorrência do que tem sido chamado pela doutrina especializada de "alucinação". E, embora eu não seja adepto do termo, que me parece sensacionalista e incoerente, devido à incapacidade desses sistemas de, efetivamente, pensar1 -, parece-me inequívoco que, sob o prisma da responsabilidade técnica, é imprescindível que o advogado mantenha postura diligente na seleção e validação das informações fornecidas pelos sistemas de inteligência artificial.
Qualquer um desses sistemas opera a partir de lógica heurística pura, robustecida por parâmetros e hiperparâmetros orientados por modelos transformadores (transformer-based models), o que lhes permite contrastar cada palavra da construção textual a partir de comparação ampla baseada em contexto, que demanda grande poder computacional, mas resulta em conteúdo bem escrito e deveras persuasivo. Por essa razão, não há confiabilidade quanto à extração de conteúdo literal, para citação direta, o que pode fazer com que sejam sugeridos entendimentos jurisprudenciais inexistentes, colacionados excertos doutrinários que conflitam com as fontes originais ou mesmo apresentadas previsões normativas desconexas do texto legal em vigor, culminando em grave prejuízo à defesa dos interesses do cliente.
Aliás, a situação é tão alarmante que os sistemas de IA, por vezes, podem fundir parágrafos de diferentes autores ou decisões, criando um híbrido que não corresponde fielmente a nenhuma das fontes. Essa "quimera de texto" passa despercebida ao olhar desatento, mas pode suscitar graves questionamentos quando identificada em juízo.
A função social do advogado, como prevista no Estatuto da Ordem dos Advogados do Brasil (lei 8.906/1994), exige que este atue de modo a promover a ordem jurídica justa, observando a ética e da profissão. Consequentemente, o uso de sistemas como ChatGPT, Grok, Gemini ou Claude não exime o profissional de responder por eventuais incorreções ou deturpações, em consonância com o que preceitua o art. 34, inciso XIV, do referido Estatuto, que define como infração disciplinar a conduta de "deturpar o teor de dispositivo de lei, de citação doutrinária ou de julgado, bem como de depoimentos, documentos e alegações da parte contrária, para confundir o adversário ou iludir o juiz da causa".
Esse dispositivo reforça a ideia de que cabe ao advogado a verificação acurada do conteúdo que subscreve, ainda que tenha sido gerado por sistema de IA, pois, ao exercer seu múnus, tem o dever de assegurar a correção e a fidedignidade dos argumentos e citações apresentados nas peças jurídicas que oferece em juízo, com sua assinatura.
Retoma-se a noção de accountability, que, nesse sentido, representa uma dimensão ética e jurídica pela qual o profissional se vê obrigado a prestar contas quanto à qualidade e veracidade das informações fornecidas ao Poder Judiciário. O uso de sistemas de inteligência artificial não exclui essa obrigação, pois a essência do exercício da advocacia permanece vinculada ao compromisso com a veracidade dos fatos e com a integridade do ordenamento jurídico2.
Nesse sentido, a falta de zelo na verificação das citações e referências oferecidas por sistemas de inteligência artificial pode caracterizar a citada infração ético-disciplinar, posto que o advogado seria o canal que legitima, perante o Judiciário, a manifestação textual produzida. De fato, o profissional que ignora essa necessidade de avaliação acurada incorre em potencial violação do art. 34, XIV, do Estatuto da OAB.
Noutro norte, a perspectiva teleológica do processo civil, orientada pela busca da verdade e pela resolução efetiva das lides, não se concilia com a negligência na checagem das fontes tecnológicas. O advogado que despreza esse cuidado incorre em contradição com a finalidade essencial do processo, que é pacificar o conflito de interesses de forma justa e célere. Assim, a prudência na contratação e no uso de sistemas de IA exige do advogado uma postura de permanente atualização e crítica, questionando a procedência de cada sugestão gerada e rechaçando aquelas que não encontrarem base sólida na realidade fática ou no direito aplicável, uma vez que somente assim se harmoniza o avanço tecnológico com o compromisso ético.
Por essa razão e, tendo em vista que a higidez do processo judicial pressupõe que as partes atuem com lealdade e boa-fé, a utilização irrefletida dessas ferramentas sem qualquer controle de veracidade pode caracterizar litigância de má-fé, nos moldes do art. 80 do CPC, que prevê que há má-fé processual quando a parte altera a verdade dos fatos (inc. I) ou procede de modo temerário (inc. V). Também é de rigor a menção à possibilidade de configuração de ato atentatório à dignidade da justiça, tipificado pelo art. 77 do CPC em situações como a prática de inovação ilegal no estado de fato de bem ou direito litigioso (inv. IV), que é caracterizada por atos inúteis ou desnecessários ou pela apresentação de defesa ou formulação de pretensão sem fundamento3. Nos dois casos, se o advogado, valendo-se das respostas incorretas de um sistema de inteligência artificial, apresentar argumentos e provas sem a mínima cautela investigativa quanto à sua autenticidade, estará sujeito às multas respectivas, que poderão ser cobradas nos próprios autos do processo (art. 777 do CPC).
Sob a ótica da responsabilidade civil, o advogado que negligencia a supervisão do conteúdo gerado por sistemas de inteligência artificial também se expõe à reparação de danos causados ao cliente, pois o controle de qualidade do material gerado por sistema de IA torna-se um imperativo inegociável. Assim, o profissional precisa elaborar e executar protocolos de revisão que incluam a verificação de fidelidade às fontes originais, a compatibilidade com o ordenamento jurídico brasileiro e a conformidade com os valores éticos da função advocatícia.
Quando se fala em accountability, sublinha-se a importância de que cada ato do advogado possa ser rastreado e justificado, especialmente em matérias sensíveis nas quais qualquer deturpação do texto legal, doutrinário ou jurisprudencial pode acarretar consequências graves, seja para o cliente, seja para a própria credibilidade do Judiciário, seja para a reputação do profissional.
A adoção precipitada de sistemas de IA, sem a devida compreensão de seus limites, pode acabar por iludir o profissional menos experiente, que passa a confiar cegamente na ferramenta. Por esse motivo, é fundamental compreender que, mesmo com algoritmos sofisticados, a IA não substitui o raciocínio jurídico pautado na hermenêutica e na prudência.
Nesse novo contexto de atuação orientada por sistemas ditos "generativos", exige-se que cada passo do profissional seja respaldado em uma fonte legítima e verificável, afastando a possibilidade de que se subverta a lógica do direito com informações desconexas ou adulteradas, uma vez que o advogado é a última trincheira na garantia de que o conteúdo apresentado em juízo encontre fundamento seguro na lei, na doutrina e na jurisprudência.
Nesse sentido, a conduta do advogado ao se valer dessas ferramentas deve espelhar a prudência dos bons profissionais, aqueles que compreendem a tecnologia como instrumento de auxílio, mas nunca de substituição do discernimento ético-jurídico. Tal postura envolve uma deferência inegociável aos preceitos normativos e o escrutínio rigoroso das sugestões fornecidas pelos sistemas de IA.
Sem esse compromisso, a prática forense se converte em um exercício meramente mecanicista, no qual a qualidade argumentativa e a profundidade técnica cedem lugar a reproduções automáticas e, muitas vezes, carentes de segurança jurídica. À advocacia, não basta o volume de produção textual; impõe-se a qualidade do raciocínio jurídico e a confiabilidade das fontes citadas.
Considere-se, outrossim, que a multiplicação de litígios baseados em textos gerados por IA pode levar à saturação do Judiciário com peças de menor densidade, comprometendo a efetividade da justiça. Este fenômeno se agrava se o conteúdo for turvo ou confuso, dificultando a compreensão do magistrado e ensejando maior morosidade no deslinde dos processos em razão da necessidade de contínua checagem de cada artigo de lei, excerto de doutrina ou ementa de julgado que estiver transcrito em uma peça processual.
A responsabilidade civil por danos causados ao cliente, aludida anteriormente, pode se concretizar em hipóteses nas quais a utilização indevida desses sistemas leve à formulação de teses jurídicas temerárias. O cliente, ao ver frustradas suas expectativas, poderia alegar falha na prestação de serviços e buscar responsabilizar o advogado pelos prejuízos provenientes de uma demanda mal sustentada.
Como se sabe, a derrota em litígio processual, por si só, não gera responsabilidade civil do advogado, pois a advocacia não se confunde com a garantia de resultado. No entanto, se restar demonstrado que a derrocada advém de erros grosseiros, baseados em informações fornecidas pela IA sem qualquer conferência, o advogado pode vir a responder pelos prejuízos diretos sofridos pelo cliente4. Nesse âmbito, a possibilidade de derrota em litígio processual agrava ainda mais as repercussões negativas dessa prática antiética, pois, além dos danos pecuniários inerentes ao insucesso, há o descrédito profissional e a deterioração do relacionamento com o patrocinado, muitas vezes irreversível. A confiança outrora depositada no patrono fica irremediavelmente abalada diante de erros que poderiam ter sido evitados com verificação mínima.
A análise da culpa profissional, neste caso, ganha contornos ainda mais evidentes quando a conduta faltosa está associada à desídia na supervisão de um sistema que o próprio advogado decidiu empregar. O risco inerente à tecnologia deve ser calculado e gerenciado, sob pena de recaírem sobre o profissional as consequências jurídicas e disciplinares de sua omissão ou imperícia.
Com efeito, a fronteira entre o produtivismo alavancado por sistema de IA e a autonomia profissional do advogado requer delimitação precisa. Enquanto os sistemas podem oferecer suporte na pesquisa e na sistematização de informações, não devem jamais se sobrepor ao discernimento humano, que permanece o principal garantidor da legitimidade e da justiça das pretensões levadas a juízo. A dimensão ética, pois, torna-se inseparável da dimensão técnica na medida em que o profissional que não domina suficientemente a tecnologia, tampouco se dispõe a controlar seu resultado, coloca em risco o interesse do cliente e a qualidade do processo judicial.
A formação continuada torna-se, então, um pressuposto indispensável para a adoção responsável desses sistemas. Nesse sentido, a Ordem dos Advogados do Brasil, por meio de seus órgãos de classe, possui papel fundamental na orientação e conscientização dos inscritos quanto ao uso responsável de tecnologias em questão5. Promover cursos, seminários e publicações a respeito da matéria é uma forma de assegurar que os profissionais conheçam os riscos e saibam precaver-se das armadilhas oriundas de tais ferramentas, inclusive para cumprimento do comando normativo inserido na Política Nacional de Educação Digital (lei 14.533/23), que prevê como estratégia prioritária, em seu art. 3º, §1º, inciso II, a "promoção de projetos e práticas pedagógicas no domínio da lógica, dos algoritmos, da programação, da ética aplicada ao ambiente digital, do letramento midiático e da cidadania na era digital".
De outro lado, os magistrados, cientes de que o número de peças produzidas com auxílio de IA cresce exponencialmente, devem atentar-se ao exame minucioso das citações e dos dispositivos legais supostamente aplicados, exigindo sempre a comprovação fidedigna das fontes. Assim, atua-se de forma preventiva contra eventuais deturpações.
Caso haja constatação de discrepâncias ou de incoerências, deve o advogado proceder à devida correção, rejeitando o uso de informações que não encontre respaldo. A parcimônia no uso de sistemas de IA também é recomendável, pois o excesso de dependência pode embotar a análise crítica e conduzir a soluções simplistas, divorciadas das nuances próprias de cada caso concreto. Nesse sentido, é altamente recomendável que o advogado mantenha registros das verificações efetuadas, documentando a pesquisa de fontes e o confronto dos dados para que, caso seja questionado, possa demonstrar que agiu com diligência. Tal medida de precaução protege o profissional, evidenciando sua boa-fé e seu compromisso com a retidão de seu trabalho.
Sob a lente ética, tal adulteração é ainda mais crítica, visto que atenta contra a integridade intelectual da produção acadêmica e do próprio precedente judicial. Ao advogado compete assegurar a autenticidade de qualquer citação, fazendo referência clara aos autos, às páginas, aos trechos efetivamente transcritos, evitando, assim, qualquer acusação de manipulação ou falsidade.
Cabe salientar que o dever de veracidade não é mero formalismo, mas reflete a própria razão de ser do processo judicial. O juiz, ao julgar, baseia-se nas alegações das partes e nas provas que lhe são apresentadas. Se estas se mostram manipuladas ou errôneas, a prestação jurisdicional fica comprometida, afetando, em última análise, a confiança social na Justiça. Assim, o zelo ético do advogado abrange não somente a fidelidade no relato dos fatos, mas também a correção das fontes jurídicas empregadas para fundamentar suas teses.
Diante desse cenário, a prudência recomenda que o advogado instrua seu cliente a respeito das limitações e possibilidades dos sistemas de IA clarificando que, em última instância, ele mesmo será o revisor final de tudo o que for produzido. Esse ato de transparência se coaduna com a noção de accountability, fortalece a confiança na relação advogado-cliente e diminui a probabilidade de disputas posteriores acerca de erros no conteúdo gerado6. De igual modo, para reforçar a integridade da atuação, o advogado pode adotar práticas de revisão colaborativa, envolvendo outros profissionais do escritório, ou mesmo contratando serviços de consultoria especializada em checagem de dados e citações. Esse método sistematizado de validação reduz as chances de que passe despercebida uma deturpação textual.
__________
1 MALEKI, Negar; PADMANABHAN, Balaji; DUTTA, Kaushik. AI Hallucinations: A Misnomer Worth Clarifying. 2024. Disponível aqui. Acesso em: 09 abr. 2025.
2 Eis o alerta de Susskind: "I implore you, tomorrow's lawyers, to take up the mantle of the benevolent custodians; to be honest with yourselves and with society about those areas of legal endeavour that genuinely must be preserved for lawyers in the interests of clients". SUSSKIND, Richard. Tomorrow's lawyers: an introduction to your future. Oxford: Oxford University Press, 2017. p. 195.
3 MEDINA, José Miguel Garcia. Curso de Processo Civil. 8. ed. São Paulo: Thomson Reuters Brasil, 2023. p. 168.
4 PIRES, Fernanda Ivo. Responsabilidade civil e o "robô-advogado". In: MARTINS, Guilherme Magalhães; ROSENVALD, Nelson (coord.). Responsabilidade civil e novas tecnologias. 2. ed. Indaiatuba: Foco, 2024. p. 264-265.
5 Segundo Nalini, "o estudo incessante, o aprofundamento conceitual, o domínio do vernáculo e de mais de um idioma, a familiaridade com as TCIs - Tecnologias de Comunicação e Informação, a formação interdisciplinar, a vontade de vencer desafios, a capacidade de se adaptar a novas realidades, são valores agregados ao diploma". NALINI, José Renato. Ética Geral e Profissional. 12. ed. São Paulo: Revista dos Tribunais, 2015. p. 656.
6 Permanece atual o primeiro mandamento da advocacia, sublinhado por Couture: "Estuda - O direito está em constante transformação. Se não o acompanhas, serás cada dia menos advogado". COUTURE, Eduardo. Os mandamentos do advogado. Trad. Ovídio A. Baptista da Silva e Carlos Otávio Athayde. Porto Alegre: Sergio Antônio Fabris Editor, 1979. p. 21.