1. Introdução
Desde a aprovação do AI Act como regulamento europeu - concebido com o objetivo de estruturar um regime preventivo para sistemas de inteligência artificial - havia a expectativa de que o texto viesse acompanhado de disposições expressas sobre responsabilidade civil por danos causados por IA. Contudo, apesar das inúmeras discussões travadas no Parlamento Europeu, o texto final do regulamento não incorporou tais previsões. O AI Act, em sua versão definitiva, não contém regras específicas sobre regimes de responsabilidade civil.
Além disso, em 2025, a Comissão Europeia decidiu retirar da sua agenda a proposta de Diretiva de Responsabilidade por IA (AILD - AI Liability Directive), que inicialmente buscava complementar o regulamento.
Estas brevíssimas reflexões têm como objetivo examinar essa posição: os motivos que levaram a União Europeia a não incluir regimes de responsabilidade civil no AI Act nem a avançar com a diretiva correspondente, bem como os argumentos e obstáculos enfrentados no processo. Busca-se, ainda, refletir sobre as lições que essa experiência europeia pode oferecer ao Brasil, especialmente no contexto do debate sobre a regulação da responsabilidade civil em matéria de inteligência artificial.
2. Panorama da proposta original de responsabilização em IA na UE
Para compreender a relevância da retirada, convém relembrar o arcabouço inicial das discussões regulatórias na UE:
- Em 2022, a Comissão propôs a AILD - AI Liability Directive, com o objetivo de complementar o AI Act e preencher lacunas no regime de responsabilidade civil, adaptando as normas de responsabilidade não contratual para os danos causados por sistemas de IA.
- Essa proposta contemplava instrumentos como: presunção de nexo causal (em casos de sistemas de alta complexidade); ordenação judicial de divulgação de evidências por operadores de IA (documentos, logs) quando necessário para apuração do dano; flexibilização do ônus da prova para vítimas em situações de opacidade algorítmica.
- Em paralelo, a revisão da Diretiva de Responsabilidade por Produtos (PLD - Product Liability Directive) buscava expandir o conceito de produto para abarcar software e IA, reconhecendo que essas tecnologias deveriam se submeter a regras de responsabilidade objetiva tradicionais quando causassem dano.
Portanto, o modelo europeu pretendido era de dupla camada: o AI Act cuidaria da regulação preventiva (obrigações de conformidade, transparência, requisitos técnicos etc.), ao passo que a AILD e a PLD revisitada serviriam para garantir a reparação ex post, com regras de responsabilidade civil adaptadas ao contexto da IA. Nesse sentido, confira-se a tabela adiante:
|
Instrumento |
AI Act – AIA (2024) |
Diretiva UE 2024/2853 (Product Liability Directive – PLD) |
AI Liability Directive (AILD)
|
|
Objeto principal |
Segurança, classificação de risco e conformidade de sistemas de IA |
Responsabilidade por produtos defeituosos |
Responsabilidade civil por danos causados por IA fora das relações de consumo |
|
Tipo de relação regulada |
Qualquer uso de IA (abrangência geral) |
Relações de consumo |
Relações civis extracontratuais (não consumeristas) |
|
Responsabilidade prevista |
Não trata de responsabilidade civil, mas impõe deveres ex ante |
Objetiva |
Subjetiva com mecanismos de facilitação probatória |
|
Situação atual |
Vigente |
Vigente |
Arquivada em fev. 2025 |
Tabela comparativa criada pelos autores sobre os instrumentos europeus relacionados à regulamentação da IA
3. Retirada da proposta de responsabilidade civil: fatos e motivações
Em fevereiro de 2025, a Comissão Europeia incluiu formalmente na sua programação de trabalho a retirada da proposta de diretiva sobre responsabilidade civil extracontratual em IA (AILD). Tal decisão fez parte de uma inflexão mais ampla na política regulatória europeia, marcada por um movimento de simplificação normativa e estímulo à competitividade tecnológica.
O marco simbólico dessa mudança foi o AI Summit 2025, evento realizado em Paris, que reuniu líderes de mais de 100 países e cujo documento final não apoiou a adoção de medidas restritivas ao desenvolvimento e à aplicação da IA. Pelo contrário, prevaleceu um discurso de desregulamentação seletiva e de alinhamento com tendências globais mais liberais, diante do receio de que regulações excessivamente onerosas comprometam a capacidade da Europa de competir no setor de inteligência artificial.
A influência dos Estados Unidos foi particularmente notória nesse contexto. Durante o evento, o vice-presidente norte-americano JD Vance criticou de forma contundente o excesso de rigidez normativa na regulação da IA (overregulation), advertindo que ela poderia comprometer a ascensão de um setor transformador. Suas declarações foram alinhadas à política pró-inovação do governo Trump-Biden, em forte contraste com a abordagem regulatória mais cautelosa da União Europeia. Ao lado dessa pressão externa, também pesaram fatores internos, como o lobby de empresas europeias emergentes - em especial a startup francesa Mistral, especializada em IA generativa - e a resistência política de líderes como o presidente francês Emmanuel Macron, que, desde 2023, já se opunha à inclusão dos foundation models no escopo do AI Act, defendendo sua autorregulação.
A Comissão Europeia, no seu programa de trabalho para 2025, adotou o lema “Avançando juntos: uma União mais ousada, simples e rápida”, anunciando a retirada de 37 propostas legislativas, entre elas a AILD. A justificativa oficial foi a ausência de consenso político suficiente para sua aprovação. Nos bastidores, contudo, argumentou-se que, após a entrada em vigor do AI Act - que regula os sistemas de IA com base em níveis de risco -, uma diretiva paralela de responsabilidade civil tornar-se-ia redundante e excessivamente onerosa, sobretudo para pequenas e médias empresas.
Essa reconfiguração sugere uma escolha evidente: substituir a tutela jurídica ex post por uma governança regulatória ex ante centrada no gerenciamento de riscos. Se, por um lado, essa opção favorece a atração de investimentos e o dinamismo do setor tecnológico europeu, por outro, há quem defenda que isso deixa desprotegido o espaço das relações civis extracontratuais fora do consumo - justamente o terreno mais permeável à insegurança jurídica.
A retirada da proposta expõs a influência das pressões políticas e econômicas na regulação da inteligência artificial. A resistência de setores industriais e a preocupação com a competitividade digital muitas vezes prevaleceram sobre a construção de um regime jurídico de proteção mais robusto, revelando a tensão permanente entre os interesses de inovação tecnológica e a tutela efetiva dos direitos dos cidadãos europeus.
Em resumo, com a revogação da AILD, a União Europeia abdica, ao menos por ora, de construir uma resposta jurídica sistêmica à complexidade da responsabilização civil em face de tecnologias autônomas. Nesses cenários, as vítimas devem recorrer ao Direito interno dos Estados-membros, que, em geral, adotam modelos de responsabilidade subjetiva, exigindo prova de culpa - um desafio significativo diante da complexidade técnica, do caráter autônomo e da opacidade dos sistemas de IA.
3.1 Motivos declarados
Vale destacar que há 4 motivos expressamente declarados pela Comissão Europeia para a retirada da proposta de Diretiva de Responsabilidade por IA. O primeiro deles foi a falta de consenso entre Estados-membros e partes interessadas. Muitos governos nacionais manifestaram preocupação com a ingerência excessiva sobre seus sistemas de Direito Civil, considerados pilares de autonomia legislativa interna. Paralelamente, a indústria tecnológica exerceu forte pressão por regras mais simples e menos onerosas, temendo que um regime específico de responsabilidade para IA gerasse custos regulatórios desproporcionais e inibisse a inovação.
Outro motivo relevante foi o temor de fragmentação normativa. A Comissão destacou a preocupação de que uma diretiva de responsabilidade civil, em vez de promover uniformização, acabasse por estimular soluções díspares entre os países, à medida que cada Estado-membro poderia transpor as normas de forma distinta, comprometendo a harmonização no mercado único europeu.
Também pesou a complexidade técnica e jurídica do tema. Regulamentar juridicamente sistemas de inteligência artificial - caracterizados pela autoaprendizagem, opacidade algorítmica e interdependência de diferentes componentes – mostrou-se um desafio intrincado. Muitos avaliaram que seria arriscado introduzir específicos regimes de responsabilidade, presunções legais e regras de causalidade em um campo ainda marcado por incerteza científica e tecnológica.
Por fim, a Comissão observou que a revisão da PLD - Product Liability Directive poderia ser suficiente para responder à maioria das situações envolvendo IA. A ampliação do conceito de produto para incluir software e algoritmos, aliada às novas presunções probatórias, foi considerada pela Comissão como capaz de suprir, ao menos parcialmente, a lacuna reparatória.
3.2 Consequências práticas da retirada
Observa-se que o AI Act, em sua versão final, não contém regras sobre regime de responsabilidade civil, ficando essa matéria a cargo de outras diretivas ou da legislação nacional. Restou, como instrumento central, a revisão da Product Liability Directive, que alargou a definição de produto para incluir software/IA e ajustou regras de presunção e divulgação de evidências no âmbito dos produtos defeituosos. No entanto, a PLD atua essencialmente por meio do regime de responsabilidade objetiva por defeito, e não cobre plenamente a gama de casos que a AILD pretendia alcançar, como situações não estritamente “defeituosas” (por exemplo, decisões algorítmicas discriminatórias ou enviesadas) ou ocorrências fora de relações contratuais de consumo.
Como visto, a decisão de excluir a responsabilidade civil do AI Act limita o alcance das obrigações preventivas nele estabelecidas. Embora o regulamento imponha exigências de conformidade, transparência e gestão de riscos, não há garantia de reparação direta em caso de dano. É possível que tribunais nacionais utilizem essas disposições como parâmetro indireto de “due care” na avaliação de condutas negligentes, mas tal aplicação dependerá de desenvolvimento jurisprudencial e poderá variar de acordo com cada ordenamento interno.
A ausência de uma diretiva específica de responsabilidade civil em matéria de inteligência artificial cria um vazio regulatório significativo. A inexistência de regras unificadas abre espaço para divergências jurisprudenciais entre jurisdições nacionais, criando insegurança tanto para as vítimas quanto para fornecedores que operam em diferentes países da União Europeia. Em vez de promover harmonização e previsibilidade, a retirada da AILD pode resultar justamente em fragmentação normativa no mercado único europeu.
4. Lições para o Brasil e implicações estratégicas
No Brasil, o PL 2.338/23, aprovado no Senado e em tramitação na Câmara dos Deputados, busca estabelecer um marco regulatório para a IA. É adotada a lógica de classificação de riscos, inspirada no AI Act, com previsão de medidas preventivas. Todavia, os seus dispositivos sobre responsabilidade civil (arts. 27 a 29) vêm sendo criticados pela falta de densidade normativa e sofisticação dogmática.
A previsão contida no art. 27, por exemplo, proclama a adoção de um regime de responsabilidade objetiva, mas condiciona sua incidência à análise da participação do agente na ocorrência do dano. Ao proceder assim, reintroduz, ainda que de forma implícita, a necessidade de avaliação da conduta, o que compromete a pureza do regime objetivo e aproxima o modelo proposto de uma responsabilidade subjetiva disfarçada.
Nesse sentido, ensina Mafalda Miranda Barbosa (2024) que, apesar de louvado o projeto brasileiro com a previsão de uma hipótese de responsabilidade objetiva, “fica-se sem perceber por que motivo a responsabilização do agente de IA fica limitada a` sua participação no dano”. E complementa: “não só pode não haver efetiva participação no dano - no sentido causalista do termo -, como, em moldes imputacionais, o grande problema pode ser não se conseguir discernir o grau de contribuição de cada interveniente no ciclo de vida do sistema”. Significa isto que “mesmo dando-se um passo em frente, parece denotar-se aqui uma certa prisão a quadros dogmáticos que devem ser superados (em geral e, muito em particular, no tocante a` IA).”
Ainda que o PL 2.338/23 busque inovar com a introdução de presunções de culpa e responsabilidade objetiva, a partir da classificação de riscos, essas categorias não se articulam organicamente com o restante do ordenamento jurídico nacional. Em vez de propor uma reconstrução conceitual (ressignificação) coerente com os desafios próprios da inteligência artificial, a proposta recorre a institutos clássicos - como culpa, nexo causal e dever de cuidado - sem reconfigurá-los à luz das transformações tecnológicas contemporâneas. Assim, o modelo revela-se híbrido e, em certa medida, anacrônico, na medida em que mistura elementos normativos tradicionais com categorias regulatórias recentes, mas sem empreender o esforço teórico necessário para compatibilizá-los de forma sistemática.
Diante disso, algumas lições podem ser extraídas da experiência europeia:
- Separar regulação preventiva e regime de reparação deve ser considerada uma opção interessante, mas apenas se o legislador assegurar, em outro nível normativo, uma disciplina efetiva da responsabilidade civil.
- O Brasil pode estruturar a resposta por meio de revisões pontuais ao CDC e ao CC, incorporando, por exemplo: presunções de causalidade e de defeito em litígios envolvendo IA; atualização do conceito de defeito para abarcar autoaprendizagem; critérios de solidariedade para a cadeia de agentes tecnológicos.
- A fragmentação normativa é um risco concreto: sem coordenação, normas díspares podem surgir, gerando insegurança para fornecedores e desproteção para vítimas.
5. Conclusão
O recuo da União Europeia em relação à inclusão de um regime específico de responsabilidade civil para a IA - seja no AI Act, seja na extinta AILD - é um movimento pragmático que reflete a complexidade do tema e a preocupação com a competitividade digital. Ao priorizar a gestão de riscos e a conformidade preventiva (ex ante), a UE optou por delegar a reparação (ex post) à revisão da PLD - Product Liability Directive e, principalmente, à legislação civil nacional dos Estados-membros.
Para o Brasil, essa experiência europeia é mais do que um alerta: é um caminho estratégico a ser considerado. A tentativa do PL 2.338/23 de criar um regime híbrido - uma responsabilidade objetiva que, na prática, reintroduz a avaliação de conduta e nexo causal complexos - demonstra a fragilidade dogmática e o risco de insegurança jurídica ao misturar categorias tradicionais com a dinâmica da IA. Esse modelo pode se tornar anacrônico e ineficaz.
Diante disso, a lição estratégica é defender a retirada das previsões de regimes de responsabilização civil do PL 2.338/23. O Brasil deveria assumir, de forma mais explícita, a separação entre prevenção e reparação adotada pela UE. O framework regulatório da IA deve se concentrar na governança e na gestão de riscos (ex ante).
A reparação civil, por sua vez, deve ser garantida por meio de atualizações pontuais, focadas e cirúrgicas no CC e no CDC. Essas revisões poderiam incorporar instrumentos já debatidos – como presunções de causalidade, flexibilização probatória e atualização do conceito de defeito para abarcar software e a autoaprendizagem - de forma a garantir a proteção das vítimas, sem sobrecarregar o marco regulatório da IA com um regime civil incompleto e de difícil aplicação. Delegar a responsabilidade civil ao Direito privado existente, mediante ajustes estratégicos, é a melhor forma de harmonizar a inovação com a tutela efetiva de direitos.
_______
Referências bibliográficas
BARBOSA, Mafalda Miranda. IA, riscos e responsabilidade – uma reflexão em torno do Regulamento IA e do projeto de lei brasileiro nº 2338, de 2023. Revista Brasileira de Direito Civil – RBDCivil, v. 33, n. 4, p. 163-189, out./dez. 2024.
NOGAROLI, Rafaella. Medical liability and artificial intelligence: Brazilian and European legal approaches. Springer Nature: Cham, 2025.
NOGAROLI, Rafaella. Responsabilidade civil médica e inteligência artificial: culpa médica e deveres de conduta no século XXI. São Paulo: Thomson Reuters Brasil, 2023.