IA responsável: Erros comuns ao invocar "legítimo interesse" - e como evitar
A IA e a LGPD: riscos ao invocar o Legítimo Interesse, limites, balanceamento e salvaguardas. Alternativas seguras e checklist para decidir com segurança.
sexta-feira, 24 de outubro de 2025
Atualizado às 11:37
Nos últimos 24 meses, a IA - Inteligência Artificial saiu do imaginário e das teses acadêmicas, ultrapassou as paredes do laboratório e entrou no cotidiano das áreas de negócio. Hoje ela está nos bots de atendimento, na análise de crédito, na detecção de anomalias em segurança da informação, na subscrição e análise de riscos de seguros, na triagem de currículos em RH, na segmentação e descoberta de produtos em Marketing, na pesquisa e elaboração de peças jurídicas - enfim, em qualquer processo com oportunidade concreta de automação. Em todas essas frentes, dois padrões se repetem: (i) pressão por eficiência e time-to-value; (ii) tendência de empurrar a discussão de salvaguardas para depois. Só que, além das boas práticas e dos debates éticos, quando o uso da IA envolve tratamento de dados pessoais, há um marco inescapável: a LGPD - lei 13.709/18, que impõe princípios, bases legais e prestação de contas.
Assim, sob a ótica da LGPD, podemos classificar o uso da IA para tratamento de dados pessoais em dois cenários:
a) Uso direto (operacional)
Quando a aplicação que integra IA recebe e processa dados pessoais de forma explícita para cumprir uma finalidade de negócio. Exemplos:
- Chatbots que consultam histórico do cliente;
- Modelos de scoring com dados cadastrais;
- Agentes inteligentes que resumem dossiês contendo nome, CPF e prontuários internos.
Aqui, o tratamento é intencional e visível no fluxo do processo: a IA foi desenhada para tratar dados de titulares.
b) Uso indireto (treino / refinamento / contexto)
Quando dados pessoais acabam empregados em atividades de suporte ao ciclo de vida do modelo - treino, re-treino, refinamento, avaliação e engenharia de prompt. Ocorre, por exemplo, quando:
- Exportamos bases "temporárias" para fornecedores de IA;
- Criamos e compartilhamos com o modelo arquivos de contexto/instruções incluem dados pessoais;
- Integramos modelos a sistemas legados e logs/telemetria carregam identificadores.
Nesse caso, o tratamento de dados pessoais, por ser secundário, ou por ser um "efeito colateral" do uso da IA traz novos contornos à governança. E com isso, novos riscos muitas vezes subestimados na análise inicial, tais como:
- Compartilhamento de dados pessoais com terceiros sem ciência do titular;
- Reutilização dos dados além do escopo original (desvio de finalidade);
- Falta de transparência.
Em ambos os cenários, cabe ao controlador e aos operadores: (i) manter o registro das operações de tratamento (art. 37); (ii) observar os princípios previstos na lei - finalidade, adequação, necessidade, transparência, segurança, prevenção e prestação de contas (art. 6º); e (iii) eleger e documentar a base legal adequada para o uso dos dados pessoais (arts. 7º e 11), juntamente com todas as demais obrigações de governança previstas. Em outras palavras, não há exceção de projeto para IA: registro, princípios e base legal são requisitos mínimos e verificáveis.
Neste contexto, eleger e documentar a base legal adequada para o uso de dados pessoais por soluções de IA tornou-se um dos maiores desafios para gestores, DPOs e especialistas em privacidade, governança e compliance. O ponto crítico é justificar juridicamente cada tratamento (arts. 7º e 11) e, ao mesmo tempo, equilibrar a governança - evitando ônus operacionais desnecessários - sem expor controlador e operador a riscos legais.
Uma saída recorrente observada no mercado é ancorar o uso de IA no "legítimo interesse do controlador" (art. 7º, IX). Afinal, eficiência operacional, melhoria de produtos/serviços, prevenção e mitigação de riscos e promoção de ofertas são interesses legítimos do negócio, certo?
Ocorre, porém, que o LI - Legítimo interesse não é passe livre: requer finalidade específica, necessidade (não há meio menos intrusivo), balanceamento com direitos e expectativas do titular, salvaguardas proporcionais e transparência. E, por fim: LI não alcança dados pessoais sensíveis, cuja disciplina está no art. 11.
A ANPD - Autoridade Nacional de Proteção de Dados já publicou definições objetivas sobre o Legítimo Interesse, e estabelece critérios como: identificação da finalidade específica, teste de necessidade (se há meio menos intrusivo), verificação da legítima expectativa do titular, transparência e registro das operações, além do teste de balanceamento documentado. Essas definições reforçam que reforça que LI não é autodeclaratório; é demonstrável e auditável.
No mesmo sentido, a ANPD orienta que, diante de alto risco, o controlador produza RIPD/DPIA (art. 38) detalhando operações, riscos a direitos e liberdades, e salvaguardas proporcionais - algo que deve ser comum em projetos de IA, que, por definição, tratam de decisões automatizadas, alta escala de tratamento de dados e opacidade técnica.
Logo, é fácil percebermos que há um conjunto de sinais vermelhos em que o LI tende a falhar (ou exigir salvaguardas tão robustas que perde eficiência frente a outras bases) quando tratamos do uso de IA para a realização de tratamento de dados pessoais:
- Finalidade ampla ou vaga ("melhorar modelos em geral"): isso não supera o teste de especificidade/necessidade nem a legítima expectativa do titular;
- Impacto significativo (perfilhamento com efeitos jurídicos ou similares): o balanceamento costuma pender ao titular; demanda RIPD e salvaguardas reforçadas;
- Assimetria informacional (o titular não percebe a finalidade secundária): fere expectativa legítima e transparência, fragilizando o LI;
- Falta de salvaguardas verificáveis (pseudonimização real, retenção limitada, opt-out quando cabível, segregação de ambientes, auditoria de prompts/outputs): sem controles demonstráveis, o balanceamento tende a ser negativo.
Isso significa que fazer o uso da IA para realizar tratamento de dados pessoais (de forma direta ou indireta) exige racionalidade jurídica própria, não um "atalho" pelo LI.
Além disso, os demais princípios e regras previstas na LGPD continuam mandatórios: por exemplo, se houver compartilhamento com terceiros (fornecedores de IA, nuvem, APIs), entram controles de contratualização, auditoria e cadeia de tratamento, e, se houver transferência internacional, há que se observar as regras específicas sobre a matéria.
Para evitar armadilhas e mitigar riscos, ao analisar o uso da IA no contexto do tratamento de dados pessoais, podemos adotar algumas práticas:
a) Procurar hipóteses alternativas (e muitas vezes melhores) ao LI, analisando cada tratamento de dados de forma individual, e buscando eleger a melhor alternativa balanceando o interesse do titular, o interesse do controlador e a gestão e governança operacional. Exemplos:
- Chatbot de atendimento que acessa cadastro, histórico e solicitações do cliente para cumprir o serviço contratado
Alternativa: Execução de contrato (art. 7º, V), desde que previsto no contrato.
- Autenticação antifraude com biometria (face/voz) para impedir tomada de contas
Alternativa: Prevenção à fraude e segurança do titular - dados sensíveis (art. 11, II, "g").
- Score de risco de crédito com IA para concessão/ajuste de limite
Alternativa: Proteção do crédito (art. 7º, X).
- Pesquisa científica/estudos para melhoria de política pública ou conhecimento acadêmico, usando dados anonimizados ou com salvaguardas de pesquisa
Alternativa: Estudos por órgão de pesquisa (art. 7º, IV; e, para sensíveis, art. 11, II, "c", com anonimização sempre que possível), desde que o controlador seja um órgão de pesquisa.
b) Se o LI for, de fato, a melhor base, trate-o como um "projeto de engenharia" jurídica e técnica:
- Finalidade específica e testável: inventariar e registrar o tratamento com objetivo delimitado, indicadores de sucesso e escopo de dados mínimo necessário;
- Necessidade demonstrada: evidenciar porque não há alternativa menos intrusiva (p. ex., amostragem, anonimização/pseudonimização robusta, dados sintéticos);
- LIA completo (Teste de Balanceamento): documentar avaliação de direitos e expectativas do titular, incluindo grupos vulneráveis, perfilhamento, probabilidade/impacto de erro e viés, e efeitos sobre o titular; manter trilha de auditoria;
- Salvaguardas proporcionais e verificáveis:
- Segregação de ambientes (dados, features, modelos e chaves);
- Retenção mínima dos dados e eliminação segura;
- Direito de objeção (opt-out) por parte dos titulares quando a finalidade não for essencial;
- Auditoria de prompts/outputs e AVT (avaliação de vieses técnicos) com critérios objetivos;
- Governança de terceiros com cláusulas contratuais que vedem uso para fins próprios, logs, right-to-audit e auditorias recorrentes.
- Transparência reforçada: redigir e publicar avisos claros sobre a finalidade primária e secundária so tratamento e sobre compartilhamentos com provedores de IA e fronteiras de uso;
- RIPD/DPIA quando aplicável: produzir, aprovar e manter relatórios de impacto conforme previsto na LGPD para cenários de alto risco, com plano de mitigação e responsáveis definidos;
- SGPD como infraestrutura de governança: operar um Sistema de Gestão de Proteção de Dados integrado, que dê visibilidade centralizada ao controlador/operador e ao DPO sobre inventário, bases legais, riscos, salvaguardas, evidências, e que automatize registros, avaliações e relatórios.
Dessa forma, resta claro que o uso da IA para a realização de tratamento de dados pessoais é projeto de negócio com risco regulatório crítico. Quem tenta acelerar com a "válvula de escape" do legítimo interesse sem engenharia jurídica e técnica apenas transfere o atraso para a fase de fiscalização. Escolher bem a base legal, documentar o balanceamento, e operar salvaguardas verificáveis não reduz velocidade: evita refazer caminho e dá previsibilidade. É assim que um bom SGPD deve se posicionar sobre o uso da IA: eficiência com conformidade, evidência e governança.
Adilson Taub Junior
CEO da Omnisblue e especialista em GRC, Privacidade e IA aplicada. Defensor do uso responsável de IA, lidera adequação à LGPD e compliance no setor público e privado, com 22 anos de experiência em tecnologia aplicada para resultados.


