MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. Migalhas de peso >
  4. IA nas serventias extrajudiciais, na advocacia e a LGPD

IA nas serventias extrajudiciais, na advocacia e a LGPD

Análise da IA no Direito, em especial no extrajudicial e na advocacia, comparando AI Act e LGPD, bases legais (dever legal vs. consentimento) e a tensão entre eficiência e riscos.

sexta-feira, 19 de dezembro de 2025

Atualizado às 11:11

Inteligência artificial nas serventias extrajudiciais, na advocacia e seus limites regulatórios na LGPD - Lei Geral de Proteção de Dados

1. Introdução

O Poder Judiciário padece de uma severa crise. Ivo Teixeira Gico Jr cunhou o termo "Tragédia do Judiciário" para referir-se a um sistema lento que, na sua concepção, atrai quem quer apenas atrasar suas obrigações e, ao mesmo tempo, exclui cidadãos com causas legítimas.1

Nesse contexto, a IA - Inteligência Artificial emerge não como um paliativo, mas como o principal vetor de transformação. Conforme articulado por autores como Nunes, Bahia e Pedron, a IA é apontada como a ferramenta central para reestruturar a prestação jurisdicional, configurando o que é designado como a "virada tecnológica no direito".2 A adoção de tecnologias de IA é, portanto, a resposta mais robusta da atualidade para enfrentar os desafios de gestão, celeridade e coerência decisória que definem a "Tragédia do Judiciário".

O termo "inteligência artificial", cunhado em 1956 por John McCarthy, significa "o comportamento de máquinas que poderiam ser classificados como inteligentes caso um ser humano se comportasse da mesma maneira".3Atualmente, porém, o objetivo da IA afastou-se da ideia de replicar o funcionamento exato do cérebro humano.4Conforme Jerry Kaplan, a essência da IA moderna reside menos no processo e mais nos resultados: é a capacidade de fazer generalizações apropriadas, de modo oportuno e com dados limitados.5

A IA já é tratada como uma tecnologia de propósito geral, a exemplo da eletricidade. Nunes, Bahia e Pedron afirmam que, em termos funcionais, um sistema de IA consiste em três elementos: sensores (input), lógica operacional (algoritmo) e atuadores (output). O algoritmo é o núcleo desse sistema, definido como "uma sequência de comandos para que o computador transforme o input em um output, consistindo em fórmulas matemáticas que, aplicadas aos dados de entrada, possibilitam ao sistema a resolução do problema proposto"6

A evolução da IA pode ser compreendida em "ondas". A primeira onda, conhecida como IA simbólica ou "GOFAI" - Good, Old-Fashioned AI, é baseada em sistemas onde especialistas humanos criam regras precisas que a máquina deve seguir.7 Embora esta abordagem facilite a compreensão de como o sistema chega a um resultado (explicabilidade), ela possui uma autonomia reduzida e é limitada, funcionando melhor apenas em ambientes restritos e bem definidos.

O "boom" da IA está impulsionado pela segunda onda: o machine learning (aprendizado de máquina). Esta técnica representa uma revolução porque, em vez de programar regras explícitas, o ML utiliza algoritmos que permitem ao sistema "aprender" automaticamente, descobrindo padrões diretamente a partir dos dados, seja por experiência ou treino.8 Esta abordagem é mais eficaz para extrair padrões de grandes e desordenados bancos de dados, como os data centers. Destarte, a capacidade do machine learning de processar e encontrar padrões em volumes massivos de informações (como acervos jurídicos e registrais) é o que viabiliza seu uso prático no sistema de justiça, e, de maneira especial, nas serventias extrajudiciais.

Contudo, a elevada capacidade transformadora da inteligência artificial, notadamente em setores de alta criticidade, suscita uma demanda proporcional por mecanismos de controle, que impulsionou um acelerado processo de "corrida normativa" em múltiplos ordenamentos jurídicos. Atualmente, a União Europeia estabeleceu o que é considerado o marco legislativo mais robusto e abrangente sobre o tema no cenário internacional.

2. Uso prático de IA no exterior e nas serventias extrajudicias: A UE como modelo normativo para o mercado jurídico de IA

A União Europeia assumiu a vanguarda na regulação da IA em 2024 com a publicação do regulamento (UE) 2024/1689 ou AI Act (lei de IA da UE) que adota uma abordagem baseada em risco para o uso de IA nos serviços públicos. Dentro dessa estrutura, parte dos sistemas de IA destinados a apoiar funções notariais foram categorizados como de "alto risco".

A justificativa para tal classificação, conforme exposto no art. 64 do regulamento, reside no "impacto potencialmente significativo na democracia, no Estado de direito e nas liberdades individuais".9 A legislação reconhece que ferramentas de IA utilizadas para auxiliar autoridades judiciárias (categoria na qual se enquadra a atividade notarial na Europa, por sua natureza de auxiliar da justiça e garantidora de efeitos jurídicos) na "investigação e interpretação de factos e do direito" apresentam riscos elevados de "potenciais enviesamentos, erros e opacidade".10

Essa classificação não implica uma proibição automática ao uso, mas estabelece conjunto de obrigações prévias à comercialização e ao uso, tanto para desenvolvedores quanto para usuários. As principais exigências incluem a avaliação e mitigação de riscos frequente, a utilização de bases de dados de alta qualidade (que devem ser filtradas para serem livres de vieses cognitivos), a rastreabilidade (manutenção de registros detalhados que permitam auditar e compreender como o sistema chegou a um determinado resultado) e a supervisão/intervenção final humana, que deve sempre estar presente em vários níveis e se sobrepor aos resultados apresentados pela IA.

Há, no entanto, tratamento diferente aos "sistemas de IA concebidos para atividades administrativas puramente auxiliares que não afetam a administração efetiva da justiça em casos individuais",11 que não são considerados de alto risco. Assim, uma IA de gerenciamento de banco de dados ou de apoio à digitalização pode ser utilizada sem os mesmos entraves de um programa de análises individualizadas de risco.

Na Europa, o mercado privado já desenvolve soluções de inteligência artificial para o setor notarial, com ferramentas que atuam nos níveis de GOFAI e "machine learning". O primeiro tipo de atividade visa meramente otimizar fluxos de trabalho, com atividades que normalmente seriam exercidas mecanicamente por funcionários sem grande poder decisório. É o caso, por exemplo, de empresas como a norte-americana NotaryLive12 e a alemã Platus13, que desenvolveram sistemas de IA passivos, que analisam documentos para identificar e marcar automaticamente campos que exigem assinaturas ou datas, otimizando o tempo de preparação dos atos. 

O segundo nível, o "machine learning" diz respeito a atividades que exigem maior análise e interpretação de documentos a fim de simplificar e subsidiar as decisões em médio e alto nível dos operadores do Direito. Nesse patamar mais avançado, surgem ferramentas que funcionam como um assistente jurídico ativo, a exemplo das oferecidas na França por empresas como a AutoLex,14 que utiliza IA generativa para auxiliar notários a redigir e revisar documentos complexos, e a Septeo15, que foca em análises inteligentes de contratos e na busca avançada de informações. Nesse contexto, incluiria-se também nessa categoria, em dadas circunstâncias, o emprego de IAs generativas de texto de uso geral, como ChatGPT, Gemini, Claude e Deepseek. 

No Brasil, a IA já vem sendo utilizada com muita ênfase nos registros de imóveis com a  IARI - Inteligência Artificial do Registro de Imóveis, uma ferramenta desenvolvida em parceria com a Google destinada a modernizar a extração de dados nos cartórios. A solução visa trazer mais agilidade e segurança ao processamento de dados imobiliários, otimizando a estruturação das informações, reduzindo erros manuais e padronizando o envio, o que auxilia os cartórios no cumprimento dos provimentos 143/CNJ e 170/CNJ. O desenvolvimento e a manutenção da IARI são financiados pelo FIC SREI, mas há um custo operacional de processamento de dados estimado entre R$ 0,05 e R$ 0,10 por página de matrícula. Cartórios contemplados no programa PID são isentos da taxa, e os demais arcam apenas com este valor de processamento16.

Ao mesmo tempo, a plataforma "IA Not", destinada aos serviços notariais, atualmente em fase de implementação, visa otimizar a prática dos atos, exercendo primariamente funcionalidades como a automação de processos, o preenchimento automático de campos em atos notariais eletrônicos e o suporte inteligente na redação de minutas e documentos. Adicionalmente, a IA pode ser utilizada em um nível acima, para realizar análise, conferência e cruzamento de dados. Em um patamar ainda mais avançado, a plataforma incorpora uma faceta de análise comportamental, destinada a identificar desvios de padrão e informar ao serventuário possíveis incongruências.17

Em contraponto a essa abordagem centralizada observada nos serviços extrajudiciais, a advocacia enfrenta um cenário de inovação substancialmente mais pulverizado. Os advogados e escritórios de advocacia navegam em um ecossistema fragmentado, composto por múltiplas soluções de legaltech e ferramentas de uso geral. No mercado internacional, destacam-se plataformas como a Harvey, uma IA generativa treinada especificamente para tarefas jurídicas complexas, que já vem sendo adotada por grandes escritórios brasileiros. Concomitantemente, um vasto ecossistema de legaltechs nacionais - como Inspira, U. Legal, JurídicoIA e muitas outras - oferece soluções focadas no mercado brasileiro.18 Em paralelo, a essas ferramentas especializadas, a classe jurídica adota também modelos de IA generativa de uso geral, como o ChatGPT e o Gemini, para tarefas cotidianas. 

3) Normativas atual no Brasil

A regulamentação brasileira do uso de IA no sistema de justiça ainda é incipiente e não aborda diretamente a atividade extrajudicial. A principal norma é a resolução CNJ 615, de 11/3/25, que estabelece diretrizes para o Poder Judiciário e, embora não seja automaticamente aplicável aos tabelionatos, seus princípios podem inspirar futuras normas das corregedorias estaduais. A norma estabelece linhas gerais para o uso da IA, mas deixa  o desenvolvimento e a implementação de soluções inovadoras ao nível local, ajustando-se aos contextos específicos de cada tribunal (art. 1º, §1º)19

A abordagem do CNJ também se baseia em níveis de risco, mas com proibições específicas mais diretas que a legislação europeia. Por exemplo, a resolução veda expressamente o uso de IA para classificação de pessoas para avaliar a plausibilidade de direitos, valoração de atributos pessoais em matéria penal ou trabalhista e reconhecimento de emoções, ao argumento de "acarretarem risco excessivo à segurança da informação, aos direitos fundamentais dos cidadãos ou à independência dos magistrados, o desenvolvimento e a utilização de soluções" (art. 10, caput).20

Excluídas essas categorias, a norma divide, a exemplo de sua contraparte europeia, as IAs por atividades desenvolvidas entre "alto risco" e "baixo risco". São consideradas de alto risco as finalidades que envolvem diretamente o julgamento, a interpretação e o monitoramento, como a identificação de perfis e padrões de comportamento, a valoração de provas, a tipificação de fatos como crimes e a formulação de juízos conclusivos sobre a aplicação da lei. Inclui-se também nesta categoria o uso de identificação facial ou biométrica para monitorar o comportamento de pessoas. Para essa categoria, o art. 13 da resolução preleciona medidas especiais que devem ser adotadas pelos implementadores:

Art. 13. Antes de ser colocada em produção, a solução que utilize modelos de inteligência artificial de alto risco deverá adotar as seguintes medidas de governança: 

I - sempre que tecnicamente possível, utilizar dados de treinamento, validação e teste que sejam adequados, representativos e equilibrados, contendo propriedades estatísticas apropriadas em relação às pessoas afetadas e levando em conta características e elementos específicos do contexto geográfico, comportamental ou funcional no qual o sistema de IA de alto risco será utilizado; 

II - registro de fontes automatizadas e do grau de supervisão humana que tenham contribuído para os resultados apresentados pelos sistemas IA, a serem submetidos a auditorias regulares e monitoramento contínuo; 

III - indicação clara e em linguagem simples dos objetivos e resultados pretendidos pelo uso do modelo de IA, de forma que possam ser compreendidos pelos usuários e supervisionados pelos magistrados; 

IV - documentação em linguagem simples, no formato adequado a cada agente de IA e à tecnologia usada, do funcionamento do sistema e das decisões envolvidas em sua construção, considerando todas as etapas relevantes no ciclo de vida do sistema e atualizado sempre que o sistema evolua; 

V - uso de ferramentas ou processos de registro automático da operação do sistema (log), sempre que tecnicamente possível, para permitir a avaliação periódica de sua acurácia e robustez, apurar potenciais resultados discriminatórios, com implementação das medidas de mitigação de riscos e atenção para efeitos adversos e identificar eventual uso malicioso ou indevido do sistema; 

VI - medidas para mitigar e prevenir vieses discriminatórios, bem como políticas de gestão e governança para promoção da responsabilidade social e sustentável; e 

VII - adoção de medidas para viabilizar a explicabilidade adequada, sempre que tecnicamente possível, dos resultados dos sistemas de IA e de medidas para disponibilizar informações adequadas em linguagem simples e acessível que permitam a interpretação dos seus resultados e funcionamento, respeitados o direito de autor, a propriedade intelectual e os sigilos industrial e comercial, mas garantida a transparência mínima necessária para atender ao disposto nesta Resolução. 21

Em contrapartida, são classificadas como de baixo risco as atividades de apoio e gestão, desde que haja a indispensável supervisão humana. Neste grupo enquadram-se tarefas de gestão processual, como a sumarização de documentos e a transcrição de áudio, a análise de padrões decisórios para subsidiar magistrados sem substituir sua avaliação, a produção de textos de apoio e a anonimização de documentos. As atividades de baixo risco possuem menores restrições do que as de alto risco, mas serão submetidas a auditoria frequente para avaliação periódica de seu nível.

A portaria CNJ 270, de 27/8/25, que criou o Comitê Nacional de Inteligência Artificial do Judiciário, não incluiu representantes das serventias extrajudiciais em sua composição.22

Em paralelo, no universo da advocacia, a recomendação 1/24 do Conselho Federal da OAB também estabelece diretrizes éticas para o uso de inteligência artificial generativa, porém no contexto da advocacia.23 O documento enfatiza que a IA deve ser uma ferramenta de apoio, subordinada à indispensável supervisão humana, sendo vedada a delegação de atividades privativas da advocacia - isto é, a postulação a órgão do Poder Judiciário e aos juizados especiais e as atividades de consultoria, assessoria e direção jurídicas, conforme o art. 1º do Estatuto da OAB - Advocacia e a Ordem dos Advogados do Brasil.24 Nesse sentido, a recomendação exige as seguintes práticas:

Art. 3.7: Advogados que utilizam IA em litígios devem garantir que as informações fornecidas ao tribunal sejam precisas e verificadas. Neste sentido, o advogado deve:

I. Revisar integralmente todas as saídas geradas pela IA antes de apresentá-las em processos judiciais, a fim de evitar erros factuais ou jurídicos. II. Não confiar exclusivamente nos resultados da IA para a elaboração de argumentos ou documentos submetidos aos tribunais, assegurando a análise humana competente.25

A preocupação com a veracidade das informações e das normas apresentadas26 é tamanha que a norma dedica um artigo específico ao levantamento de jurisprudência:

Art. 3.2: Especial atenção deve ser dada para o levantamento de doutrina e jurisprudência com a utilização de IA generativa. O(a) advogado(a) deve cumprir estritamente com os deveres estabelecidos no Art. 77 do Código de Processo Civil, em especial no que diz respeito à veracidade das informações apresentadas em juízo, mesmo que essas sejam coletadas com apoio de recursos tecnológicos.27

Naturalmente, todo tratamento de dados do cliente deve seguir a LGPD - Lei Geral de Proteção de Dados, que também deve obedecer ao princípio da confidencialidade e do sigilo profissional. Tais compromissos são reforçados pelo art. 3.6, que determina:

Art. 3.6: Advogados sócios de sociedades de advogados ou que exerçam cargos de gestão devem garantir que o uso da IA por advogados associados ou contratados, estagiários e assistentes não advogados, seja supervisionado de acordo com as normas correlatas. Para isso, devem:

I. Estabelecer políticas claras sobre cibersegurança e o uso permitido de IA no escritório. II. Fornecer treinamento adequado sobre o uso ético e seguro das ferramentas de IA. III. Monitorar o cumprimento das normas éticas e garantir que qualquer pessoa que utilize IA esteja ciente das obrigações profissionais relacionadas.28

Por fim, a recomendação é rígida quanto à transparência total com o cliente, exigindo que o advogado informe previamente, por escrito e em linguagem clara, sobre o uso da IA, seus riscos e limitações, e obtenha o consentimento explícito e informado do cliente antes de aplicar a tecnologia ao caso. 

No entanto, as normas estabelecidas na recomendação configuram-se como melhores práticas e diretrizes éticas, sem possuir caráter obrigatório ou vinculante. Trata-se de um guia deontológico que visa orientar a advocacia, ao contrário das normas elaboradas pelo CNJ. Ainda sim, a Lei Geral de Proteção de Dados aplica-se em ambos os contextos.

4) Limites regulatórios do uso de IA nas serventias extrajudiciais e na advocacia conforme a LGPD - Lei Geral de Proteção de Dados

As serventias têm passado por uma intensa transformação digital, fomentada pelo próprio CNJ. O provimento 100/20 (agora revogado e incorporado ao Prov. 149/23) criou a plataforma e-Notariado, que permite que cidadãos realizem atos (como escrituras e procurações) à distância, mediante a utilização de uma identidade digital, o certificado digital notarizado.29

A emissão do certificado digital notarizado, que habilita o cidadão a usar o e-Notariado, exige a coleta de dados biométricos (como foto e padrões faciais). A LGPD classifica dados biométricos como dados pessoais sensíveis (art. 5º, II),30 cujo tratamento exige um nível de proteção muito mais elevado.   

O uso de IA para reconhecimento facial, seja para a autenticação no e-Notariado ou para a prevenção de fraudes em atos presenciais, é o que Martins considera como uma das "zonas cinzentas" da LGPD.31 Os riscos associados aos dados biométricos são particularmente graves, principalmente porque são insubstituíveis. Diferentemente de uma senha convencional, um vazamento de dados biométricos é irreversível, pois o dado não pode ser "trocado". Além do perigo de exposição permanente, existe o notório viés discriminatório; sistemas de reconhecimento facial, por exemplo, são conhecidos por sua imprecisão na identificação de minorias, como pessoas negras, o que pode levar a graves erros de identificação, sejam falsos negativos ou falsos positivos.32 Por fim, soma-se a esses riscos o potencial de uso indevido, onde os dados podem ser explorados para fins comerciais ou de vigilância não autorizados.

A base legal para o tratamento desses dados sensíveis nas serventias, em geral, não é o consentimento do titular (Art. 11, I da LGPD). Neste ponto, há uma distinção fundamental em relação à advocacia: enquanto o advogado trata os dados do cliente em uma plataforma de IA porque o cliente permitiu (baseado no consentimento, princípio estabelecido na recomendação 1/24 da OAB),33 o Tabelião ou registrador trata os dados porque a lei exige para a segurança do ato.

A atuação da serventia ampara-se, portanto, nas exceções do art. 11, inciso II, da LGPD, como o "cumprimento de obrigação legal ou regulatória" (neste caso, as normas do Conselho Nacional de Justiça) ou a "garantia da prevenção à fraude e à segurança do titular" (art. 11, II, 'g'). Essa ausência de consentimento aumenta a responsabilidade do controlador (o cartório), que deve ser capaz de demonstrar a estrita necessidade e proporcionalidade do uso da biometria, preferencialmente por meio de um RIPD - Relatório de Impacto à Proteção de Dados, como exigido pela ANPD e pelo CNJ. 34  

O CNJ tem atuado de forma robusta na regulação das ferramentas. O provimento 134/22 exigiu a nomeação de um encarregado (cargo correspondente ao data protection officer),35 a realização do mapeamento de dados (inventário de dados pessoais) , a revisão de todos os contratos com fornecedores de tecnologia exigindo garantias de segurança e a elaboração de relatórios de impacto sobretudo para atividades de risco, como o tratamento de biometria.36

Com o provimento 149/23, o CNJ internalizou a proteção de dados no Código Nacional de Normas da Corregedoria Nacional de Justiça - Foro Extrajudicial (CNN/CN/CNJ-Extra). Houve a transposição das normas já existentes regras de LGPD e no provimento 134/CNJ, como o art. 87 (exigências para fornecedores de tecnologia) e o art 88 (regras para o encarregado), Mais importante, o art. 105 do novo Código estabelece que a adaptação das práticas de tratamento de dados à LGPD será verificada na correição anual, criando um pilar auditável da própria atividade extrajudicial.

Não obstante as precauções tomadas pelas próprias serventias e pelo CNJ, existem riscos inerentes ao próprio uso de qualquer IA, como o viés algorítmico. 

A IA não é "objetiva"; ela é um reflexo dos dados com os quais foi treinada. O viés surge quando os dados históricos de treinamento refletem preconceitos sociais e culturais. Por exemplo, se um modelo de jurimetria é treinado em décadas de decisões judiciais que continham vieses implícitos de um ou mais juízes (ou serventuários), a IA irá aprender, replicar e amplificar esses vieses em suas previsões.37 Da mesma forma, sistemas de reconhecimento facial treinados predominantemente com imagens de um grupo étnico terão taxas de erro muito maiores ao tentar identificar outros grupos. O algoritmo, desenvolvido por programadores humanos, acaba por replicar os preconceitos socioculturais da sociedade. 38Por outro lado, a discriminação algorítmica é uma violação direta do princípio da não discriminação previsto na LGPD (art. 6º, IX,) que hoje, impera como barreira  para o controle de vieses em sistemas de IA.39   

O futuro, todavia, ainda é incerto e ainda não se sabe como e se a LGPD poderá ser aplicada especificamente na inteligência artificial aplicada aos sistemas de justiça. 

5) Conclusões

Paradoxalmente, a mesma tecnologia que se apresenta como a solução mais robusta para a "Tragédia do Judiciário", promovendo a celeridade e a eficiência, é também uma potencial fonte de riscos significativos aos direitos fundamentais.

A análise da virada tecnológica no Direito demonstra que o machine learning e o tratamento de dados biométricos são o epicentro da modernização, exemplificados pela IARI e pela IA Not. Contudo, esta modernização coloca os operadores do Direito na qualidade de controladores de dados, em uma posição de alta responsabilidade. 

O limite regulatório fundamental, no entanto, reside na Lei Geral de Proteção de Dados, que lega às serventias e aos advogados o desafio de implementar a IA em estrita conformidade com suas normas, sobretudo no tratamento de dados sensíveis.

_____________________________

1 GICO JR, Ivo Teixeira. A tragédia do Judiciário. Revista de Direito Administrativo, v. 267, p. 163-198, 2014.

2 NUNES, Dierle José Coelho; BAHIA, Alexandre; PEDRON, Flávio Barbosa Quinaud. Teoria geral do processo: com comentários sobre a virada tecnológica no direito processual. Salvador: JusPODIVM, 2020.

3 KAPLAN, Jerry. Artificial Intelligence: What everyone needs to know. Oxford: Oxford University Press, 2016, p. 13-14. 

4 McCARTHY, J.; MINSKY, M. L.; ROCHESTER, N.; SHANNON, C. E. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. 1955. Disponível em: http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html. Acesso em: 15 out. 2019.

5 KAPLAN, Jerry. Artificial Intelligence: What everyone needs to know. Oxford: Oxford University Press, 2016, p. 5-6.

6 NUNES, Dierle José Coelho; BAHIA, Alexandre; PEDRON, Flávio Barbosa Quinaud. Teoria geral do processo: com comentários sobre a virada tecnológica no direito processual. Salvador: JusPODIVM, 2020.

7 KAPLAN, Jerry. Artificial Intelligence: What everyone needs to know. Oxford: Oxford University Press, 2016, p. 13.

8 DOMINGOS, Pedro. A Few Useful Things to Know about Machine Learning. Communications of the ACM, Vol. 55 No. 10, Pages 78-87, 2012.

9 PARLAMENTO EUROPEU E DO CONSELHO. Regulamento (UE) 2024/1689, de 13 de junho de 2024. que cria regras harmonizadas em matéria de inteligência artificial e que altera os Regulamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e as Diretivas 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (Regulamento da Inteligência Artificial). Jornal Oficial da União Europeia, Luxemburgo, L, 13 jun. 2024

10 PARLAMENTO EUROPEU E DO CONSELHO. Regulamento (UE) 2024/1689, de 13 de junho de 2024. que cria regras harmonizadas em matéria de inteligência artificial e que altera os Regulamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e as Diretivas 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (Regulamento da Inteligência Artificial). Jornal Oficial da União Europeia, Luxemburgo, L, 13 jun. 2024

11 PARLAMENTO EUROPEU E DO CONSELHO. Regulamento (UE) 2024/1689, de 13 de junho de 2024. que cria regras harmonizadas em matéria de inteligência artificial e que altera os Regulamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e as Diretivas 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (Regulamento da Inteligência Artificial). Jornal Oficial da União Europeia, Luxemburgo, L, 13 jun. 2024

12 NOTARYLIVE. NotaryLive. S. l., 2025. Disponível em: https://notarylive.com/. Acesso em: 26 set. 2025.

13 PLATUS. Platus. S. l., 2025. Disponível em: https://www.platus.com/. Acesso em: 26 set. 2025

14 AUTOLEX. AutoLex. S. l., 2025. Disponível em: https://www.autolex.ai/. Acesso em: 26 set. 2025.

15 SEPTEO. Septeo. S. l., 2025. Disponível em: https://www.septeo.com/en. Acesso em: 26 set. 2025.

16 COLÉGIO REGISTRAL IMOBILIÁRIO DE MINAS GERAIS. ONR lança a IARI, ferramenta de Inteligência Artificial para o Registro de Imóveis. Colégio Registral Imobiliário de Minas Gerais, 2025. Disponível em: https://corimg.org/onr-lanca-a-iari-ferramenta-de-inteligencia-artificial-para-o-registro-de-imoveis/. Acesso em: 26 set. 2025.

17COLÉGIO NOTARIAL DO BRASIL. Seção Minas Gerais. Notariado entra na era da Inteligência Artificial com a IA-Not Belo Horizonte, 29 set. 2025. Disponível em: https://cnbmg.org.br/notariado-entra-na-era-da-inteligencia-artificial-com-a-ia-not/. Acesso em: 5 nov. 2025.

18 CONJUR. Número de "legaltechs" no Brasil cresceu 16% em 2023, aponta AB2L. ConJur, 9 jan. 2024. Disponível em:https://www.conjur.com.br/2024-jan-09/numero-de-legaltechs-no-brasil-cresceu-16-em-2023-aponta-ab2l/. Acesso em: 17 nov. 2025.

19 CONSELHO NACIONAL DE JUSTIÇA (CNJ). Resolução Nº 615, de 11 de março de 2025. Dispõe sobre o desenvolvimento e o uso de sistemas de inteligência artificial no Poder Judiciário.

20 CONSELHO NACIONAL DE JUSTIÇA (CNJ). Resolução Nº 615, de 11 de março de 2025. Dispõe sobre o desenvolvimento e o uso de sistemas de inteligência artificial no Poder Judiciário.

21 CONSELHO NACIONAL DE JUSTIÇA (CNJ). Resolução Nº 615, de 11 de março de 2025. Dispõe sobre o desenvolvimento e o uso de sistemas de inteligência artificial no Poder Judiciário.

22 CONSELHO NACIONAL DE JUSTIÇA (CNJ). Portaria Nº 270, de 27 de agosto de 2025. Institui o Comitê Nacional de Inteligência Artificial do Poder Judiciário.

23 ORDEM DOS ADVOGADOS DO BRASIL. Conselho Federal. Recomendação n. 001/2024. Apresenta diretrizes para orientar o uso de Inteligência Artificial generativa na Prática Jurídica. Brasília, DF, 11 nov. 2024.

24BRASIL. Lei nº 8.906, de 4 de julho de 1994. Dispõe sobre o Estatuto da Advocacia e a Ordem dos Advogados do Brasil (OAB). Brasília, DF: Presidência da República. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/l8906.htm. Acesso em: 5 nov. 2025.

25BRASIL. Lei nº 8.906, de 4 de julho de 1994. Dispõe sobre o Estatuto da Advocacia e a Ordem dos Advogados do Brasil (OAB). Brasília, DF: Presidência da República. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/l8906.htm. Acesso em: 5 nov. 2025.

26 CONJUR. TRT-18 multa empresa e advogado por uso de jurisprudência falsa. Consultor Jurídico, São Paulo, 5 jun. 2025. Disponível em:https://www.conjur.com.br/2025-jun-05/trt-18-multa-empresa-e-advogado-por-uso-de-jurisprudencia-falsa/. Acesso em: 17 nov. 2025.

27BRASIL. Lei nº 8.906, de 4 de julho de 1994. Dispõe sobre o Estatuto da Advocacia e a Ordem dos Advogados do Brasil (OAB). Brasília, DF: Presidência da República. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/l8906.htm. Acesso em: 5 nov. 2025.

28BRASIL. Lei nº 8.906, de 4 de julho de 1994. Dispõe sobre o Estatuto da Advocacia e a Ordem dos Advogados do Brasil (OAB). Brasília, DF: Presidência da República. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/l8906.htm. Acesso em: 5 nov. 2025.

29FALEIROS JÚNIOR, José Luiz de Moura; PERROTTA, Maria Gabriela Venturoti. O Provimento 134/22 do CNJ e a aplicação da LGPD aos serviços notariais e de registro. ANOREG/SP, 19 set. 2022. Disponível em: https://www.anoregsp.org.br/noticias/77172/artigo-o-provimento-13422-do-cnj-e-a-aplicacao-da-lgpd-aos-servicos-notariais-e-de-registro-por-jose-luiz-de-moura-faleiros-junior-e-maria-gabriela-venturoti-perrotta. Acesso em: 5 nov. 2025.

30BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Presidência da República. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 5 nov. 2025

31MARTINS, Laura. LGPD e reconhecimento facial: o lado mais polêmico da proteção de dados. Portal de Privacidade Instituto da Previdência Social de Alhandra - PB, Alhandra, 26 jan. 2023. Fonte: itforum. Disponível em:https://www.portaldeprivacidade.ipemad.pb.gov.br/noticia/lgpd-e-reconhecimento-facial-o-lado-mais-polemico-da-protecao-de-dados.html. Acesso em: 5 nov. 2025.

32MACEDO, Caio Sperandeo de. O direito à revisão das decisões automatizadas de reconhecimento facial e o princípio antropocêntrico.Revista de Direito Brasileira, Florianópolis, SC, v. 36, n. 13, p. 226-246, set./dez. 2023.

33BRASIL. Lei nº 8.906, de 4 de julho de 1994. Dispõe sobre o Estatuto da Advocacia e a Ordem dos Advogados do Brasil (OAB). Brasília, DF: Presidência da República. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/l8906.htm. Acesso em: 5 nov. 2025.

34LEFOSSE. Inteligência Artificial: ANPD publica nota técnica sobre decisões automatizadas. Lefosse, 23 maio 2025. Disponível em:https://lefosse.com/noticias/inteligencia-artificial-anpd-publica-nota-tecnica-sobre-decisoes-automatizadas/. Acesso em: 5 nov. 2025

35MOLLICONE, Bianca Medalha. Provimento 134 CNJ e a adequação da LGPD aos cartórios extrajudiciais. Colégio Registral RS, s. d.. Disponível em: https://colegioregistralrs.org.br/art.s/1801/art.-provimento-134-cnj-e-a-adequacao-da-lgpd-aos-cartorios-extrajudiciais-por-bianca-medalha-mollicone/. Acesso em: 5 nov. 2025.

36CONSELHO NACIONAL DE JUSTIÇA (Brasil). Corregedoria Nacional de Justiça. Provimento n. 134, de 24 de agosto de 2022. Estabelece medidas a serem adotadas pelas serventias extrajudiciais em âmbito nacional para o processo de adequação à Lei Geral de Proteção de Dados Pessoais. Brasília, DF: CNJ, 2022. Disponível em: https://atos.cnj.jus.br/files/original1413072022082563078373a0892.pdf. Acesso em: 5 nov. 2025.

37GONÇALVES, Rafaela Vilela; BARBARESCO, Rogério Ananias. Discriminação em algoritmos de inteligência artificial: estudo da LGPDcomo mecanismo de controle dos vieses discriminatórios. Revista Científica da UNIFENAS, v. 6, n. 8, 2024.

38GONÇALVES, Rafaela Vilela; BARBARESCO, Rogério Ananias. Discriminação em algoritmos de inteligência artificial: estudo da LGPDcomo mecanismo de controle dos vieses discriminatórios. Revista Científica da UNIFENAS, v. 6, n. 8, 2024.

39BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Presidência da República. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 5 nov. 2025.

GICO JR, Ivo Teixeira. A tragédia do Judiciário. Revista de Direito Administrativo, v. 267, p. 163-198, 2014.

NUNES, Dierle José Coelho; BAHIA, Alexandre; PEDRON, Flávio Barbosa Quinaud. Teoria geral do processo: com comentários sobre a virada tecnológica no direito processual. Salvador: JusPODIVM, 2020.

KAPLAN, Jerry. Artificial Intelligence: What everyone needs to know. Oxford: Oxford University Press, 2016, p. 13-14. 

McCARTHY, J.; MINSKY, M. L.; ROCHESTER, N.; SHANNON, C. E. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. 1955. Disponível em: http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html. Acesso em: 15 out. 2019.

DOMINGOS, Pedro. A Few Useful Things to Know about Machine Learning. Communications of the ACM, Vol. 55 No. 10, Pages 78-87, 2012.

PARLAMENTO EUROPEU E DO CONSELHO. Regulamento (UE) 2024/1689, de 13 de junho de 2024. que cria regras harmonizadas em matéria de inteligência artificial e que altera os Regulamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e as Diretivas 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (Regulamento da Inteligência Artificial). Jornal Oficial da União Europeia, Luxemburgo, L, 13 jun. 2024

NOTARYLIVE. NotaryLive. S. l., 2025. Disponível em: https://notarylive.com/. Acesso em: 26 set. 2025.

PLATUS. Platus. S. l., 2025. Disponível em: https://www.platus.com/. Acesso em: 26 set. 2025

AUTOLEX. AutoLex. S. l., 2025. Disponível em: https://www.autolex.ai/. Acesso em: 26 set. 2025.

SEPTEO. Septeo. S. l., 2025. Disponível em: https://www.septeo.com/en. Acesso em: 26 set. 2025.

COLÉGIO REGISTRAL IMOBILIÁRIO DE MINAS GERAIS. ONR lança a IARI, ferramenta de Inteligência Artificial para o Registro de Imóveis. Colégio Registral Imobiliário de Minas Gerais, 2025. Disponível em: https://corimg.org/onr-lanca-a-iari-ferramenta-de-inteligencia-artificial-para-o-registro-de-imoveis/. Acesso em: 26 set. 2025.

COLÉGIO NOTARIAL DO BRASIL. Seção Minas Gerais. Notariado entra na era da Inteligência Artificial com a IA-Not Belo Horizonte, 29 set. 2025. Disponível em: https://cnbmg.org.br/notariado-entra-na-era-da-inteligencia-artificial-com-a-ia-not/. Acesso em: 5 nov. 2025.

CONJUR. Número de "legaltechs" no Brasil cresceu 16% em 2023, aponta AB2L. ConJur, 9 jan. 2024. Disponível em:https://www.conjur.com.br/2024-jan-09/numero-de-legaltechs-no-brasil-cresceu-16-em-2023-aponta-ab2l/. Acesso em: 17 nov. 2025.

CONSELHO NACIONAL DE JUSTIÇA (CNJ). Resolução Nº 615, de 11 de março de 2025. Dispõe sobre o desenvolvimento e o uso de sistemas de inteligência artificial no Poder Judiciário.

CONSELHO NACIONAL DE JUSTIÇA (CNJ). Portaria Nº 270, de 27 de agosto de 2025. Institui o Comitê Nacional de Inteligência Artificial do Poder Judiciário.

ORDEM DOS ADVOGADOS DO BRASIL. Conselho Federal. Recomendação n. 001/2024. Apresenta diretrizes para orientar o uso de Inteligência Artificial generativa na Prática Jurídica. Brasília, DF, 11 nov. 2024.

BRASIL. Lei nº 8.906, de 4 de julho de 1994. Dispõe sobre o Estatuto da Advocacia e a Ordem dos Advogados do Brasil (OAB). Brasília, DF: Presidência da República. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/l8906.htm. Acesso em: 5 nov. 2025.

CONJUR. TRT-18 multa empresa e advogado por uso de jurisprudência falsa. Consultor Jurídico, São Paulo, 5 jun. 2025. Disponível em: https://www.conjur.com.br/2025-jun-05/trt-18-multa-empresa-e-advogado-por-uso-de-jurisprudencia-falsa/. Acesso em: 17 nov. 2025.

BRASIL. Lei nº 8.906, de 4 de julho de 1994. Dispõe sobre o Estatuto da Advocacia e a Ordem dos Advogados do Brasil (OAB). Brasília, DF: Presidência da República. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/l8906.htm. Acesso em: 5 nov. 2025.

FALEIROS JÚNIOR, José Luiz de Moura; PERROTTA, Maria Gabriela Venturoti. O Provimento 134/22 do CNJ e a aplicação da LGPD aos serviços notariais e de registro. ANOREG/SP, 19 set. 2022. Disponível em:https://www.anoregsp.org.br/noticias/77172/artigo-o-provimento-13422-do-cnj-e-a-aplicacao-da-lgpd-aos-servicos-notariais-e-de-registro-por-jose-luiz-de-moura-faleiros-junior-e-maria-gabriela-venturoti-perrotta. Acesso em: 5 nov. 2025.

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Presidência da República. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 5 nov. 2025

MARTINS, Laura. LGPD e reconhecimento facial: o lado mais polêmico da proteção de dados. Portal de Privacidade Instituto da Previdência Social de Alhandra - PB, Alhandra, 26 jan. 2023. Fonte: itforum. Disponível em:https://www.portaldeprivacidade.ipemad.pb.gov.br/noticia/lgpd-e-reconhecimento-facial-o-lado-mais-polemico-da-protecao-de-dados.html. Acesso em: 5 nov. 2025.

MACEDO, Caio Sperandeo de. O direito à revisão das decisões automatizadas de reconhecimento facial e o princípio antropocêntrico. Revista de Direito Brasileira, Florianópolis, SC, v. 36, n. 13, p. 226-246, set./dez. 2023.

LEFOSSE. Inteligência Artificial: ANPD publica nota técnica sobre decisões automatizadas. Lefosse, 23 maio 2025. Disponível em: https://lefosse.com/noticias/inteligencia-artificial-anpd-publica-nota-tecnica-sobre-decisoes-automatizadas/. Acesso em: 5 nov. 2025

MOLLICONE, Bianca Medalha. Provimento 134 CNJ e a adequação da LGPD aos cartórios extrajudiciais. Colégio Registral RS, s. d.. Disponível em: https://colegioregistralrs.org.br/art.s/1801/art.-provimento-134-cnj-e-a-adequacao-da-lgpd-aos-cartorios-extrajudiciais-por-bianca-medalha-mollicone/. Acesso em: 5 nov. 2025.

CONSELHO NACIONAL DE JUSTIÇA (Brasil). Corregedoria Nacional de Justiça. Provimento n. 134, de 24 de agosto de 2022. Estabelece medidas a serem adotadas pelas serventias extrajudiciais em âmbito nacional para o processo de adequação à Lei Geral de Proteção de Dados Pessoais. Brasília, DF: CNJ, 2022. Disponível em:https://atos.cnj.jus.br/files/original1413072022082563078373a0892.pdf. Acesso em: 5 nov. 2025.

GONÇALVES, Rafaela Vilela; BARBARESCO, Rogério Ananias. Discriminação em algoritmos de inteligência artificial: estudo da LGPDcomo mecanismo de controle dos vieses discriminatórios. Revista Científica da UNIFENAS, v. 6, n. 8, 2024.

Cintia Calais

Cintia Calais

Advogada em BH/MG Membro da Comissão de Dir. Notarial e Registral OAB/MG Ex-Tabeliã e Registradora em MG Especialista em Direito. Registral e Notarial Mestranda em Estado, Mercado e Desenvolvimento.

Eduardo Calais

VIP Eduardo Calais

Tabelião e Registrador Civil em Belo Horizonte/MG. Presidente do CNB-CF. Mestre em Processo Civil - UFMG e Mestre em Direito Público - FUMEC. Doutor em Direito Ambiental - Escola Dom Helder Câmara.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca