COLUNAS

  1. Home >
  2. Colunas >
  3. Migalhas de Responsabilidade Civil >
  4. A imputação ao dever de indenizar na utilização da IA e o PL 2.338/23

A imputação ao dever de indenizar na utilização da IA e o PL 2.338/23

terça-feira, 6 de maio de 2025

Atualizado às 07:32

Como ensina Sérgio Cavalieri, a seara da responsabilidade civil é das mais férteis, podendo desaguar no direito público e privado; área essa cujos domínios são ampliados "na mesma proporção que se multiplicam os inventos, as descobertas e outras conquistas da atividade humana" (CAVALIERI FILHO, 2007, p. xxv). Uma das atividades humanas recentes são as novas tecnologias digitais associadas às telecomunicações, despontando novos arranjos econômicos e sociais, cada vez mais alinhados à transmissão de informações (Doneda, 2006). É a denominada sociedade da informação (Castells, 2020). No Brasil, por exemplo, desenvolveu-se o Livro Verde, tratando da sociedade da informação (BRASIL. MINISTÉRIO DA CIÊNCIA E TECNOLOGIA, 2000).

Outro autor que já analisava, numa perspectiva econômica, essa sociedade da informação, foi Jeremy Rifklin, ao denominar como a era do acesso; supera-se a era da acumulação, do ter, para a era da informação, do conhecimento (Rifklin, 2001, p. 13).

E agora despontam-se as tecnologias disruptivas. E uma delas é a inteligência artificial.  A IA toma decisões, mediante atuação de algoritmos e grande volume de dados; e a aplicação dela avança para potencializar funcionalidades em equipamentos, blockchain, drones, smartgrids (redes elétricas inteligentes), robótica. Por exemplo, a robótica, ao ser utilizada na saúde, desponta debates e desafios na responsabilidade civil (sobre o tema, consultar Nogaroli, 2023).

Ressalte-se que a IA mereceu, recentemente, análise no relatório da UNCTAD (UNITED NATIONS CONFERENCE ON TRADE AND DEVELOPMENT, 2025, p. 153). Dito documento reconhece a necessidade de os indivíduos buscarem indenizações decorrentes de danos relacionados à IA; mas o relatório pondera que, se por um lado, essas preocupações conduzem para temas relacionados aos padrões de segurança, confiabilidade e ética, por outro, ressalta o Relatório de que ditas preocupações podem desviar a atenção e os investimentos no âmbito dos modelos de IA. Ou seja, o Relatório pontua a necessidade de equilíbrio entre ditas preocupações, mas, reforçamos que o enfoque deve ser a proteção da vítima.

Os desafios da interpretação jurídica em matéria de responsabilidade civil decorrente da IA sugerem vários questionamentos: i. Qual o limite da imputação deste dever de indenizar? ii. A quem imputar o dever de indenizar? iii. Ao desenvolvedor da IA? iv. Àquele que dela se utiliza para expandir seus negócios? v. Àquele que maneja e alimenta a IA com dados? vi. Àquele que exerce a programação? vii. Ou a própria IA mediante sua personificação, conforme ela passe a ser uma pessoa jurídica?

Diante desses questionamentos, inegável que a IA passa a exigir novos deveres de conduta, revelam-se novos danos, novos riscos e decisões mais e mais imprevisíveis. Neste sentido, propõem articularem-se IA e responsabilidade civil.

1. Da sociedade industrial para sociedade do conhecimento e tempos de IA

Conforme dito, se já despontava a era do acesso, em virtude da internet, agora, a era digital incrementa com as tecnologias disruptivas e desafios para o Direito. E uma delas é a inteligência artificial. IA é a tecnologia aparelhada de dispositivos que permite simular a "capacidade humana de raciocinar, perceber, tomar decisões e resolver problemas" (Vilela, 2022); e essas decisões estão associadas a atuação de algoritmos. Com machine learning, a IA pode acumular experiências próprias assemelhadas ao desenvolvimento cognitivo humano e de aprendizados continuados, permitindo que ela passe a tomar decisões sem interferência humana. E a IA ganha mais sofisticação e complexidade, conforme ocorre o deep learning e as redes neurais artificiais; e nesse contexto, as decisões da IA podem se tornar imprevisíveis.

E como fica a proteção das vítimas diante dos danos que possam surgir em virtude da decisão ou manejo da IA que conduziu para uma decisão imprevisível? Nesse cenário é que se despertam novos desafios no direito diante dos novos conflitos.

Registre-se que a história nos ensina de como transformações sociais e econômicas despontaram conflitos que repercutiram no direito.

É só retomarmos a Revolução Industrial. Nela ocorreu produção (fordismo) e consumo em larga escala, transporte mais rápido e eficiente. Estas situações, por sua vez, despertaram mais e mais acidentes, de modo que a responsabilidade civil passou a ter um novo elemento vinculatório para imputação ao dever de indenizar, denominada objetiva, afinal, a imputação baseada na culpa não correspondia mais eficientemente para que as vítimas alcançassem alguma indenização.

Dada a importância da responsabilidade objetiva, ela passou a ser incorporada no ordenamento jurídico. Ressalte-se que ela já constava no decreto 2.681/1912 (lei das estradas de ferro). Mas, ela avançou para constar em matéria de dano ambiental (art. 14, § 1º, da 6.938/1981); na responsabilização do fornecedor em situações de danos nas relações de consumo (arts. 12, 14, da 8.078/1990-CDC); nas relações privadas (arts. 927, § único; 931, do CC). Em que pese haja outras situações que a legislação adota a responsabilidade objetiva.

Só que agora, o desafio é a IA. É suficiente a responsabilidade civil objetiva para promover a tutela do cidadão que sofre danos em virtude de uma IA? Podemos dar pistas a partir de alguma reflexão, que tende a avançar mais e mais, conforme as situações de riscos se tornem ou simples ou complexas para melhor proteção da vítima.

1.1.   IA e responsabilidade civil

Partimos da seguinte situação fática inusitada e real ocorrida ao final de 2020, envolvendo um robô aspirador de pó, da iRobot. Dito aparelho foi adquirido pela consumidora; e esta autorizou, no ato da compra que, o dito aspirador de pó pudesse realizar gravações e captura de imagens do interior da casa dela, e depois transmiti-las para uma central de dados para alimentar a IA, cujo intuito era o robô aspirador assimilar mais e mais informações (imagens, por exemplo), para tornar o equipamento mais eficiente. Só que, sem que a dona da casa soubesse, dito robô aspirador começou a filmar e capturar imagens dela no interior da sua casa; e numa dessas filmagens constou a dona da casa sentada no vaso sanitário do banheiro da sua casa; dita imagem foi captada indevidamente; porém, para agravar, aquelas imagens foram transmitidas e vazadas na rede mundial de computadores (Guo, 2022).

Nesta perspectiva, há o dever de indenizar em favor da moradora diante do dano extrapatrimonial experimentado por ela ante a captura indevida da sua imagem?

Diversos sistemas de inteligência artificial - sobretudo os que utilizam técnicas de IA generativa, machine learning e deep learning (aprendizado de máquina e aprendizado profundo) - operam de maneira opaca, assemelhando-se à verdadeiras "caixas-pretas". Conforme Taylor, interações entre o código e dados de treinamento reverberam um cenário de opacidade, haja vista que as bases do processo decisório automatizado não estão disponíveis nem mesmo para seus próprios programadores (Taylor, apud Franzolin, 2025).

Explica Alves e Andrade (2022) que, se o algoritmo é uma caixa-preta, da qual não se pode depreender o processo preditivo interno, será um grande desafio determinar quando, como e pelos quais motivos o algoritmo errou, informações sem as quais a atribuição de responsabilidades tornam-se tarefas eminentemente espinhosas.

No entanto, o que é certo é que a responsabilidade civil, conforme o dano sofrido pelo cidadão ou o dano que possa advir, o intérprete não pode, apenas, se concentrar na função reparatória; mas, a responsabilidade civil também deve assumir uma função preventiva, ou seja, antes do dano ser causado pela IA. Afinal, os institutos e categorias devem ser interpretados de modo funcionalizado, conforme os fins que se pretende.

Ademais, a responsabilidade civil pode envolver diferentes momentos da IA, conforme seja imputado o dever de indenizar em favor da vítima. O que se destaca é de que, tanto mais elaborada e arrojada for a IA na sua capacidade de tomar decisões e ser autodidata, mais riscos de imprevisibilidade podem ocorrer em detrimento dos indivíduos, conforme as decisões sejam danosas em maior ou menor intensidade; e nesse sentido, aquele que projeta, desenvolve, programa, dá assistência técnica deverão adotar mais e mais deveres de conduta, como dever de acompanhamento nas decisões, dever de investimento continuado da IA, dever de informação, dever de investimento em pesquisas sobre a IA de modo permanente, dentre outros.

De qualquer modo, o dever de segurança e o dever de proteção da pessoa humana deverá ser a bússola que orientará a responsabilidade civil e deverá ser manejada pelo intérprete conforme a função mais adequada ao caso concreto, podendo ser reparatória, preventiva, punitiva. Por outro, quanto aos deveres a serem exigidos daqueles que lidam com IA, precisa ser considerado também políticas públicas para que haja investimentos na dita tecnologia. O objetivo é assegurar uma proteção eficaz e proporcional às vítimas de eventuais danos, independentemente da natureza da relação jurídica envolvida.

Algumas reflexões jurídicas acerca da imputação ao dever de indenizar já são debatidas. Em matéria de consumo, há a responsabilidade objetiva. E também é possível abordar a incidência ou não do instituto do risco do desenvolvimento em matéria de IA. Responsabilidade civil pelo risco do desenvolvimento significa "riscos não cognoscíveis pelo mais avançado estado da ciência e da técnica no momento da introdução do produto no mercado de consumo e que só vem a ser descoberto após um tempo de uso" (CALIXTO, 2004, p. 175), cuja descoberta, prossegue o autor decorre do posterior avanço cientifico. Para contextualizar, é só pensar no carro autônomo que causa acidente, cuja situação jamais havia sido prevista. Nesta hipótese, Felipe Medon traz em destaque o instituto do risco do desenvolvimento, de modo que este não pode ser arguido como excludente de responsabilidade (2020, p. 215) pelo fabricante.

Já numa relação interempresarial, no âmbito societário, Frazão destaca a responsabilidade civil subjetiva, quando envolve de o administrador utilizar IA e causar danos captando o ensinamento da autora, então, para exemplificar, caso o administrador manejasse a IA para estabelecer algumas distinções entre os próprios acionistas minoritários, e despertassem algum danos em relação a eles, deve perquirir se houve ou não obediência do administrador ao dever de diligência.

Enfim, de todos os desafios envolvidos em matéria de responsabilidade civil na IA, é possível sustentar que por meio do método do diálogo das fontes, pode ser buscadas soluções no próprio ordenamento. A dúvida é se há ou não necessidade e lei específica para lidar com a responsabilidade civil no manejo da IA. De qualquer modo, vale ponderar o Projeto de Lei, conforme ela propõe, no seu texto, uma parte a qual regula a responsabilidade civil no âmbito da IA.

2. Sobre o PL 2.338/23 e critérios orientadores para definição do regime de responsabilidade civil.

No Brasil, o PL 2.338/23, que institui o marco regulatório da inteligência artificial, propõe um conjunto de diretrizes para orientar o desenvolvimento, implementação, uso e a fiscalização desses sistemas. Vale ressaltar que o referido PL, de autoria senador Rodrigo Pacheco, foi aprovado pelo Plenário do Senado no dia 10/12/24 e, atualmente está em tramitação na Câmara dos Deputados.

Os arts. 35 a 39 do PL 2338/23 compõem o "Capítulo V", dedicado especificamente à responsabilidade civil dos fornecedores de sistemas de inteligência artificial. No art. 35, estabelece de que, no caso do fornecedor que utiliza sistemas de IA causa danos, tratando-se de relações de consumo, seguirá as regras do CDC. No entanto, pelo próprio método do diálogo das fontes, o estatuto consumerista já incidirá nas situações que envolvem relações de consumo. Aplica-se a lógica da responsabilidade objetiva, em que não há necessidade de comprovação de culpa do fornecedor, bastando a existência do defeito no produto ou serviço e o nexo causal com o dano sofrido. Mas é inegável, que também é possível debater a responsabilidade pelo risco de desenvolvimento.

Já, o art. 36 trata dos casos em que os sistemas de IA são utilizados fora da esfera de consumo, ou seja, em contextos civis gerais. Nessas circunstâncias, a responsabilidade será regida, principalmente, pelas normas do Código Civil de 2002, o que pode envolver a responsabilidade subjetiva (com exigência de comprovação de culpa), bem como a objetiva, a depender do caso concreto. No entanto, também consta no Código Civil, a responsabilidade pelo risco da atividade (art. 927, § único)

O parágrafo único do art. 36 representa um avanço (ou retrocesso) significativo ao estabelecer critérios que orientam a definição do regime de responsabilidade civil aplicável em situações concretas envolvendo danos decorrentes do uso de IA. Qual seja: o nível de autonomia do sistema de IA e seu grau de risco, reconhecendo que, quanto mais autônomo e mais complexo, mais agravados e mais intensos devem ser os deveres de proteção, de segurança a serem adimplidos pelos operadores ou desenvolvedores do sistema de IA.

Também é preciso considerar a situação existencial  de cada um dos envolvidos diante de empresas que se valem de machine learning e deep learning. Ainda, é preciso destacar que o manejo de IA por alguém pode agravar a situação de vulnerabilidade de grupos já vulnerabilizados, conforme haja assimetria informacional. Logo, torna-se essencial reformular e expandir os instrumentos jurídicos voltados à proteção das vítimas, especialmente em razão da recorrente assimetria de poder entre usuários e os desenvolvedores ou fornecedores dessas tecnologias.

Subsequentemente, o art. 37 prevê que o juiz poderá inverter o ônus da prova (ou seja, transferir a obrigação de provar os fatos para o agente responsável pela IA) quando a vítima for hipossuficiente (em condição de desvantagem econômica, técnica ou informacional) e quando o funcionamento da IA dificultar excessivamente a prova por parte da vítima. Em síntese, o referido artigo visa evitar que a complexidade técnica das tecnologias de IA sirva de escudo para obstar o direito da vítima dela alcançar alguma indenização.

O art. 38 estabelece uma diretriz relevante ao tratar da responsabilidade civil no contexto do ambiente de testagem regulada, conhecido como sandbox regulatório. Conforme o mencionado dispositivo, os participantes desse ambiente continuam sujeitos à responsabilidade por eventuais danos causados a terceiros durante a fase de experimentação, nos termos da legislação vigente.

Logo, o referido artigo reforça que o sandbox não configura uma zona de isenção total de responsabilidade, mas sim, um instrumento que busca conciliar inovação tecnológica, desenvolvimento seguro e garantia de segurança jurídica.

Por fim, o art. 39 assegura a vigência de regimes de responsabilização previstos em legislações específicas, como as normas do direito ambiental, lei das SA's, CDC. Ou seja, o porvir da legislação sobre IA atuará de modo complementar, reafirmando o diálogo entre as fontes normativas vigentes.

Considerações finais

Em síntese, o acelerado desenvolvimento da inteligência artificial demanda uma atuação responsiva do Direito, de modo a garantir a proteção da pessoa humana, mesmo diante de situações de danos imprevisíveis ocasionados pela IA.

Assim, a responsabilidade civil dos atos praticados pela IA configura-se como um campo em constante desenvolvimento, sendo necessária uma abordagem equilibrada, ante os novos danos. Enquanto isso, segue os desdobramentos do PL 2.338/23, atualmente, na Câmara dos Deputados, cuja aprovação poderá contribuir para melhor dispor sobre a IA no Brasil.

___________

ALVES, Marco Antonio Sousa; ANDRADE, Otavio Morato de. Da "caixa-preta" à "caixa de vidro":  o uso da explainable artificial intelligence (XAI) para reduzir a opacidade e enfrentar o enviesamento em modelos algorítmicos. Revista direito público, v. 18, n. 100 (2022).

BRASIL. MINISTÉRIO DA CIÊNCIA E TECNOLOGIA. Sociedade da informação no Brasil : livro verde [Organizador: Tadao Takahashi]. Brasília : Ministério da Ciência e Tecnologia, 2000. Disponível aqui. Acesso 20/4/25.

BRASIL. SENADO FEDERAL. Projeto de Lei nº 2338/23. Dispõe sobre o desenvolvimento, o fomento e o uso ético e responsável da inteligência artificial com base na centralidade da pessoa humana. Brasília.

CALIXTO, Marcelo Junqueira. A responsabilidade civil do fornecedor de produtos pelos riscos do desenvolvimento. Rio de Janeiro, Renovar, 2004.

CAVALIERI FILHO, Sergio. Programa de responsabilidade civil. 7ª Ed. São Paulo, Atlas.

FRANZOLIN, Cláudio José; MONTEIRO, Giovanna Voorn; LAURENTIS, Lucas De. A (in) existência de um direito à explicação de decisões automatizadas. Themis: Revista da Esmec, v. 23, n. 1, p. 65-91 (2025). Disponível aqui. Acesso em: 9/4/25.

FRAZÃO, Ana. Responsabilidade civil de administradores de sociedades empresárias por decisões tomadas com base em sistemas de inteligência artificial. FRAZÃO, Ana; MULHOLLAND, Caitlin [Coordenadoras]. Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo, Revista dos Tribunais, 2019, 481-521

GUO, Eileen. A Roomba recorded a woman on the toilet. How did screenshots end up on Facebook? MIT Technology Review, 19 dez. 2022. Disponível aqui. Acesso em: 6/4/25

MARQUES, Guilherme Raso. Responsabilidade civil na era da inteligência artificial. Revista da Advocacia Pública Federal, v. 8, n. 1, p. 58-80, 18 dez. 2024.

MEDON, Felipe. Inteligência artificial e responsabilidade civil: autonomia, risco e solidariedade. Salvador, Editora JusPodivm, 2020.

MELO, Gustavo da Silva. Inteligência Artificial e responsabilidade civil: uma análise do anteprojeto do Marco Legal da Inteligência Artificial e do Projeto de Lei 2338/2023. Revista IBERC, Belo Horizonte, v. 7, n. 1, p. 49-65 (Jan.-Abr./2024). Disponível aqui. Acesso 20/4/25).

NOGAROLI, Rafaella. Responsabilidade civil medica e inteligência artificial: culpa médica e deveres de conduta no século XXI. São Paulo, Revista dos Tribunais, 2023.

TEPEDINO, G.; DA GUIA SILVA, R. Desafios da inteligência artificial em matéria de responsabilidade civil. Revista Brasileira de Direito Civil, [S. l.], v. 21, n. 03, p. 61, 2019. Disponível aqui. Acesso em: 6/4/25.

VILELA, Camila Maria de Moura. Inteligência artificial e big data: o processamento de dados como instrumento de uma inclusão sociodigital. Branco, Sérgio; MAGRANI, Eduardo (Coordenadores). Inteligência artificial: aplicações e desafios. Rio de Janeiro, Instituto de Tecnologia e Sociedade do Rio Rio de Janeiro (ITS/Obliq), 2002 [Ebook].