Migalhas de Peso

IA responsável: Erros comuns ao invocar “legítimo interesse” - e como evitar

A IA e a LGPD: riscos ao invocar o Legítimo Interesse, limites, balanceamento e salvaguardas. Alternativas seguras e checklist para decidir com segurança.

24/10/2025
Adilson Taub Junior

Nos últimos 24 meses, a IA - Inteligência Artificial saiu do imaginário e das teses acadêmicas, ultrapassou as paredes do laboratório e entrou no cotidiano das áreas de negócio. Hoje ela está nos bots de atendimento, na análise de crédito, na detecção de anomalias em segurança da informação, na subscrição e análise de riscos de seguros, na triagem de currículos em RH, na segmentação e descoberta de produtos em Marketing, na pesquisa e elaboração de peças jurídicas - enfim, em qualquer processo com oportunidade concreta de automação. Em todas essas frentes, dois padrões se repetem: (i) pressão por eficiência e time-to-value; (ii) tendência de empurrar a discussão de salvaguardas para depois. Só que, além das boas práticas e dos debates éticos, quando o uso da IA envolve tratamento de dados pessoais, há um marco inescapável: a LGPD - lei 13.709/18, que impõe princípios, bases legais e prestação de contas.

Assim, sob a ótica da LGPD, podemos classificar o uso da IA para tratamento de dados pessoais em dois cenários:

a) Uso direto (operacional)

Quando a aplicação que integra IA recebe e processa dados pessoais de forma explícita para cumprir uma finalidade de negócio. Exemplos:

Aqui, o tratamento é intencional e visível no fluxo do processo: a IA foi desenhada para tratar dados de titulares.

b) Uso indireto (treino / refinamento / contexto)

Quando dados pessoais acabam empregados em atividades de suporte ao ciclo de vida do modelo - treino, re-treino, refinamento, avaliação e engenharia de prompt. Ocorre, por exemplo, quando:

Nesse caso, o tratamento de dados pessoais, por ser secundário, ou por ser um “efeito colateral” do uso da IA traz novos contornos à governança. E com isso, novos riscos muitas vezes subestimados na análise inicial, tais como:

Em ambos os cenários, cabe ao controlador e aos operadores: (i) manter o registro das operações de tratamento (art. 37); (ii) observar os princípios previstos na lei - finalidade, adequação, necessidade, transparência, segurança, prevenção e prestação de contas (art. 6º); e (iii) eleger e documentar a base legal adequada para o uso dos dados pessoais (arts. 7º e 11), juntamente com todas as demais obrigações de governança previstas. Em outras palavras, não há exceção de projeto para IA: registro, princípios e base legal são requisitos mínimos e verificáveis.

Neste contexto, eleger e documentar a base legal adequada para o uso de dados pessoais por soluções de IA tornou-se um dos maiores desafios para gestores, DPOs e especialistas em privacidade, governança e compliance. O ponto crítico é justificar juridicamente cada tratamento (arts. 7º e 11) e, ao mesmo tempo, equilibrar a governança - evitando ônus operacionais desnecessários - sem expor controlador e operador a riscos legais.

Uma saída recorrente observada no mercado é ancorar o uso de IA no “legítimo interesse do controlador” (art. 7º, IX). Afinal, eficiência operacional, melhoria de produtos/serviços, prevenção e mitigação de riscos e promoção de ofertas são interesses legítimos do negócio, certo?

Ocorre, porém, que o LI - Legítimo interesse não é passe livre: requer finalidade específica, necessidade (não há meio menos intrusivo), balanceamento com direitos e expectativas do titular, salvaguardas proporcionais e transparência. E, por fim: LI não alcança dados pessoais sensíveis, cuja disciplina está no art. 11.

A ANPD - Autoridade Nacional de Proteção de Dados já publicou definições objetivas sobre o Legítimo Interesse, e estabelece critérios como: identificação da finalidade específica, teste de necessidade (se há meio menos intrusivo), verificação da legítima expectativa do titular, transparência e registro das operações, além do teste de balanceamento documentado. Essas definições reforçam que reforça que LI não é autodeclaratório; é demonstrável e auditável.

No mesmo sentido, a ANPD orienta que, diante de alto risco, o controlador produza RIPD/DPIA (art. 38) detalhando operações, riscos a direitos e liberdades, e salvaguardas proporcionais - algo que deve ser comum em projetos de IA, que, por definição, tratam de decisões automatizadas, alta escala de tratamento de dados e opacidade técnica.

Logo, é fácil percebermos que há um conjunto de sinais vermelhos em que o LI tende a falhar (ou exigir salvaguardas tão robustas que perde eficiência frente a outras bases) quando tratamos do uso de IA para a realização de tratamento de dados pessoais:

Isso significa que fazer o uso da IA para realizar tratamento de dados pessoais (de forma direta ou indireta) exige racionalidade jurídica própria, não um “atalho” pelo LI.

Além disso, os demais princípios e regras previstas na LGPD continuam mandatórios: por exemplo, se houver compartilhamento com terceiros (fornecedores de IA, nuvem, APIs), entram controles de contratualização, auditoria e cadeia de tratamento, e, se houver transferência internacional, há que se observar as regras específicas sobre a matéria.

Para evitar armadilhas e mitigar riscos, ao analisar o uso da IA no contexto do tratamento de dados pessoais, podemos adotar algumas práticas:

a) Procurar hipóteses alternativas (e muitas vezes melhores) ao LI, analisando cada tratamento de dados de forma individual, e buscando eleger a melhor alternativa balanceando o interesse do titular, o interesse do controlador e a gestão e governança operacional. Exemplos:

Alternativa: Execução de contrato (art. 7º, V), desde que previsto no contrato.

Alternativa: Prevenção à fraude e segurança do titular - dados sensíveis (art. 11, II, “g”).

Alternativa: Proteção do crédito (art. 7º, X).

Alternativa: Estudos por órgão de pesquisa (art. 7º, IV; e, para sensíveis, art. 11, II, “c”, com anonimização sempre que possível), desde que o controlador seja um órgão de pesquisa.

b) Se o LI for, de fato, a melhor base, trate-o como um “projeto de engenharia” jurídica e técnica:

Dessa forma, resta claro que o uso da IA para a realização de tratamento de dados pessoais é projeto de negócio com risco regulatório crítico. Quem tenta acelerar com a “válvula de escape” do legítimo interesse sem engenharia jurídica e técnica apenas transfere o atraso para a fase de fiscalização. Escolher bem a base legal, documentar o balanceamento, e operar salvaguardas verificáveis não reduz velocidade: evita refazer caminho e dá previsibilidade. É assim que um bom SGPD deve se posicionar sobre o uso da IA: eficiência com conformidade, evidência e governança.

Adilson Taub Junior

CEO da Omnisblue e especialista em GRC, Privacidade e IA aplicada. Defensor do uso responsável de IA, lidera adequação à LGPD e compliance no setor público e privado, com 22 anos de experiência em tecnologia aplicada para resultados.

Veja a versão completa