O uso de inteligência artificial na prática de crimes de manipulação de mercado: Spoofing e a teoria da culpabilidade
terça-feira, 19 de agosto de 2025
Atualizado em 18 de agosto de 2025 09:51
1. Introdução
A chegada da Quarta Revolução Industrial traz consigo "a fusão dos mundos físico, digital e tecnológico"1 (Schwab, 2016), por meio do advento de inovações como a inteligência artificial e a IoT - Internet das Coisas. Tal processo de aproximação deve, todavia, ser precedido por evoluções hermenêuticas e legais condizentes com sua abrangência, oferecendo soluções céleres e eficazes para as novas demandas jurídicas atinentes à evolução tecnológica.
Em ambiente de mudanças constantes, a necessidade de colaboração e participação entre os centros de interesse e a multidisciplinaridade na resolução de conflitos é crucial. De tal forma, a transformação provocada pelo progresso científico deve ser replicada à realidade prática do Direito Penal e da criminalização de condutas, levando-se em conta os problemas de efetividade e adaptabilidade do próprio sistema atual.
Neste contexto, o uso de tecnologias emergentes como inteligências artificiais baseadas em machine learning2 suscita dúvidas razoáveis sobre a extensão das possibilidades de responsabilização penal dos envolvidos. A introdução desses novos agentes artificiais na prática de crimes desafia categorias tradicionais da dogmática penal, especialmente no que tange à causalidade e à culpa3 (Sousa, 2020).
No cenário econômico, o crime de spoofing, prática subsumida ao art. 27-C da lei 6.385/1976 pela CVM4, abre margem para a utilização desses sistemas tecnológicos capazes de tomar decisões autonomamente - estas, por sua vez, imprevisíveis ao seu programador ou utilizador. Diante de tal perspectiva, o presente artigo tem como horizonte problemático analisar os casos envolvendo sistemas computacionais complexos que, a partir de dados e parâmetros estabelecidos pelo usuário ou desenvolvedor, tomam decisões autônomas não previsíveis a priori pelo seu utilizador.
Em concreto, analisa-se, a partir do crime de spoofing cometido por IAs autônomas, a possibilidade de imputar diretamente à inteligência artificial "pensante" responsabilidade penal pela prática autônoma de delitos. Isto é: à luz da dogmática penal da teoria da culpa e da causalidade adequada, é possível penalizar agente artificial?
2. Spoofing como crime de manipulação de mercado - conceituação
No contexto do mercado de capitais, spoofing é definido como a prática abusiva que cria liquidez artificial por meio de ofertas com volumes desproporcionais ao padrão do livro. Com o objetivo de induzir investidores a superar essas ofertas fictícias, estimula-se negociações no lado oposto do mercado para posteriormente cancelá-las, gerando lucro, em uma conduta fraudulenta refletida pelo termo to spoof, que significa forjar ou falsificar5 (Barbosa, 2019). Essa prática ocorre, por exemplo, quando um investidor insere ordens de compra e venda no livro de ofertas de um ativo financeiro, sem a intenção de concretizar o negócio simulado, induzindo reações instintivas de outros investidores. E, ao cancelar rapidamente essas ordens falsas, lucra com a variação artificial do preço decorrente do desequilíbrio abrupto na oferta e procura do ativo.
Como primeiros casos paradigmáticos, temos o flash crash da bolsa norte americana no ano de 2010, ocasião em que o britânico Navinder Sarao, operando do seu quarto na casa de seus pais, foi o responsável por gerar, em série de efeito cascata, prejuízo financeiro apurado em um trilhão de dólares. Enquanto no Brasil, em relevante decisão administrativa, a CVM - Comissão de Valores Mobiliários julgou o primeiro caso de spoofing (Processo Administrativo Sancionador 19957.005977/2016-18; Reg. Col. 0702/17), ocasião em que entendeu pela subsunção da referida conduta ao tipo penal do art. 27-C da lei 6.385/1976, bem como aplicou multa no valor de R$2,39 milhões - equivalente ao dobro do lucro ilicitamente obtido.
Diante de tal cenário, a doutrina nacional já vem evidenciando a necessidade de legislação específica para cibercrimes no mercado financeiro, mediante diálogo interdisciplinar entre o Direito e a Economia, de modo que a imposição de parâmetros regulatórios (enforcement) possa ser sistematizada6 (Klein; Santos, 2021). Além disso, tais práticas de negociação foram impulsionadas pela utilização de algoritmos e robôs traders nas operações, capazes de gerar ordens em milissegundos.
Com a tecnologia de High Frequency Trading (doravante HFTs), diferenciar ações humanas de programas algorítmicos é cada vez mais desafiador. Esses sistemas de última geração operam como decision makers autônomos, processando informações em tempo real, aprendendo e adaptando estratégias instantaneamente e sem intervenção humana - com base em cálculos matemáticos e machine learning.
Desta forma, os agentes econômicos têm agora ao seu dispor ferramentas que se, por um lado, potencializam exponencialmente a descoberta de novas estratégias para compra e venda de ativos, por outro lado, propiciam e ampliam estratégias predatórias, inundando-o de operações continuamente modificadas e canceladas, gerando um cenário completamente desconforme com a realidade7 (Rodrigues, 2021).
Não há dúvidas de que a conduta humana, quando orientada para a manipulação de mercado, é passível de responsabilização penal, vez que preenchidos todos os elementos do tipo do art. 27-C da lei 6.385/1976 - tanto os objetivos como os subjetivos. Todavia, diante do advento do machine learning, a questão torna-se nebulosa. Quais seriam as opções para contornar tal problemática?
3. O 'black box problem' e as suas implicações com a teoria da imputação penal clássica
Desde logo, as learning machines impõem grandes desafios à teoria clássica da infração penal. Como sistemas de inteligência artificial autônomos, não se restringem a calcular a melhor opção entre os dados previamente introduzidos por pessoa humana. Pelo contrário: se autoajustam continuamente, minimizando erros e criando sua própria gama de alternativas. Essa dinamicidade, que permite à máquina desenvolver um modelo de atuação independente, compromete a atribuição de responsabilidade às pessoas físicas que a programam ou utilizam, uma vez que, em muitos casos, não é possível determinar como a IA chegou a uma decisão específica.
A legislação penal, fundamentada em doutrinas jurídicas orientadas exclusivamente à conduta humana, ainda apresenta limitações em dar clara resposta quando aplicada aos casos descritos. Desde já, pontua-se que o presente estudo não tem como foco analisar os casos em que crimes são cometidos meramente com o auxílio da IA, nos quais a intencionalidade do agente pode ser rastreada por meio das ordens executadas pela máquina, remontando ao comando originário de uma pessoa física.
O cerne da questão aqui discutida situa-se na possibilidade de que a máquina tome decisões por conta própria, em caminho decisório inexplicável a posteriori, e cujo resultado danoso não era, a priori, previsível pelo agente humano. No caso desta vir a cometer um crime, qual deve ser a resposta do Direito Penal? A quem se direciona a pena? Trata-se de caso de verdadeiro vácuo punitivo?
A ausência de um sujeito ativo criminalmente imputável caracteriza o que a doutrina americana vem qualificando como Hard AI Crime8 (Nerantzi; Sartor, 2024), e a opacidade acerca da previsibilidade do resultado alcançado pela máquina (black box problem) origina debate sobre um possível vácuo de responsabilidade pelos danos causados por sistemas computacionais complexos de IA.
Afinal, sem negligência por parte da pessoa física responsável, e diante da existência de dano provocado unicamente por um "agente artificial" (Rodrigues, op. cit., 2021), não há, de fato, "a soul to blame and a body to kick" (Nerantzi; Sartor, op. cit., 2024). Como consequência, considerando que as normas penais - especialmente em contextos econômicos - tipificam essencialmente condutas dolosas ou intencionais, a imputação subjetiva do dano torna-se praticamente impossível quando mediada por programas computacionais independentes.
Nesse sentido, para esclarecimento da problemática, o Hard IA Crime ocorre quando os agentes artificiais são plenamente autônomos, tomando decisões próprias baseadas em objetivos lícitos previamente fixados. Além disso, não há intervenção humana durante a tomada de decisão pela máquina; os indivíduos envolvidos na criação e utilização da IA não têm ciência ou não poderiam prever que a máquina cometeria crimes por iniciativa própria. Deve verificar-se, ainda, a presença de "dolo específico" da máquina no cometimento do crime.
Contudo, nota-se desde já dificuldade de imputação do resultado lesivo às IAs autônomas pelas teorias normativo-causais ancoradas na previsibilidade, a exemplo da teoria da causalidade adequada (Sousa, op. cit., 2020). Pressupondo que apenas são juridicamente relevantes as condições que, conforme a experiência e normalidade, são idôneas para produzir determinado resultado9 (Dias, 2019), a repercussão de uma decisão autônoma da IA pode ser considerada penalmente irrelevante por ser imprevisível aos olhos de quem a programou ou utilizou.
Por outro lado, é evidente que a inteligência artificial carece de elemento volitivo próprio - a consciência do fato. Isto porque, operando por processos objetivos e algoritmos estruturados por paradigmas determinados, torna-se impossível afirmar a presença de intencionalidade ou inadvertência em condutas ilícitas (Sousa, op. cit., 2020).
Dessa forma, a impunibilidade de tais atos, decorrente de evidente lacuna legal e dogmática, desafia a confiabilidade do ordenamento jurídico como um todo. Como falham, no caso, tanto os requisitos para a imputação objetiva da ação ao resultado ilícito quanto a verificação dos elementos subjetivos exigidos pela dogmática penal quanto ao agente (culpa, intenção ou antijuridicidade), a aplicação de pena para os atos descritos não estaria, à primeira vista, legitimada.
No entanto, na presença de dano efetivo a um bem jurídico tutelado, a ausência de punição ao crime praticado pode colidir com a função de prevenção geral positiva da pena, que visa reforçar a confiança social no sistema jurídico e dissuadir condutas lesivas. É precisamente acerca desta tensão a que se refere o AI responsibility gap.
4. Das soluções doutrinárias
Como analisado, a doutrina vem, nos últimos anos, debruçando-se sobre o assunto. Autores americanos como Gabriel Hallevy10 possuem posições favoráveis à imputação de responsabilidade penal direta à IA, em argumento próximo ao utilizado para buscar a responsabilização penal de pessoas jurídicas.
Por outro lado, autores italianos como Elina Nerantzi e Giovani Sartor trazem soluções inovadoras. Indicam que o melhor caminho seria a criação de um novo regime punitivo, independente e autônomo do Direito Penal, assente na teoria econômica de crime. Tendo como objetivo principal a dissuasão dos Hard AI crimes, a solução seria a imposição de sanções progressivas aos utilizadores da IA ou aos seus programadores, impondo multas financeiras, restrições operacionais e até mesmo sugerindo a desativação das IAs utilizadas para fins ilícitos.
Tais entendimentos, no entanto, não encontram fundamento no ordenamento jurídico brasileiro. A proposta de equiparar a IA à pessoa jurídica é superficial. Apesar de ambas serem reconhecidas como sistemas organizados, é necessário levar em conta suas divergências (Sousa, op. cit., 2020). Embora dotada de personalidade jurídica própria, as decisões tomadas pelas empresas são feitas, ao fim e ao cabo, por humanos, mostrando-se errônea tal equiparação no que concerne às particularidades aqui destrinchadas.
Da mesma forma, é insustentável a aplicação de pena por fato imprevisível e praticado por inteligência artificial autônoma. A relativização das teorias de imputação - de modo a possibilitar a responsabilização da máquina - torna a sanção meramente simbólica, o que é também incompatível com as funções atribuídas ao Direito Penal.
Neste sentido, a posição adotada por Susana Aires de Sousa se apresenta como a mais adequada. A possibilidade de responsabilização criminal deve se restringir às situações em que a pessoa física que utiliza a máquina já conhece e pode prever, com alto ou baixo grau de previsibilidade, o risco que a utilização da learning machine pode representar aos bens jurídicos penalmente relevantes, em conformidade com os princípios da dogmática penal clássica.
__________
O conteúdo desta coluna é produzido pelos membros do Núcleo de Pesquisa em Direito Penal Econômico da Universidade Federal do Paraná - NUPPE UFPR e pesquisadores convidados.
_______
1 SCHWAB, Klaus. A quarta revolução industrial. Trad. Daniel Moreira Miranda. São Paulo: Edipro, 2016.
2 Subcampo da Inteligência Artificial que se refere à capacidade dos sistemas computacionais de simular processos cognitivos e comportamentos inteligentes, característicos dos seres humanos (MIT SLOAN. Machine learning, explained. MIT Sloan School of Management, 21 abr. 2021. Disponível aqui. Acesso em: 13 ago. 2025).
3 SOUSA, Susana Aires. "Não fui eu, foi a máquina": Teoria do Crime, Responsabilidade e Inteligência Artificial. A Inteligência Artificial no Direito Penal, Coord. Anabela Miranda Rodrigues, Almedina, 2020.
4 Art. 27-C. Realizar operações simuladas ou executar outras manobras fraudulentas destinadas a elevar, manter ou baixar a cotação, o preço ou o volume negociado de um valor mobiliário, com o fim de obter vantagem indevida ou lucro, para si ou para outrem, ou causar dano a terceiros (BRASIL. Lei nº 6.385, de 7 de dezembro de 1976. Dispõe sobre o mercado de valores mobiliários e cria a Comissão de Valores Mobiliários. Diário Oficial da União, Brasília, DF, 1976. Disponível aqui.
5 BARBOSA, Tomás Centurione Leme. Spoofing e layering: manipulação de mercado por meio de negociação de alta frequência. 2019. 52 f. Monografia (Pós-Graduação Lato Sensu em Direito dos Mercados Financeiro e de Capitais) - Insper Instituto de Ensino e Pesquisa, São Paulo, 2019.
6 KLEIN, Vinícius; SANTOS, Samanta Fontana dos. O SPOOFING NO MERCADO DE CAPITAIS BRASILEIRO: UMA PERSPECTIVA DE DIREITO E ECONOMIA. Revista Opinião Jurídica (Fortaleza), Fortaleza, v. 20, n. 34, p. 142-163, 2022. DOI: 10.12662/2447-6641 oj.v2034.p142-163.2022. Disponível aqui. Acesso em: 20 jul. 2025.
7 RODRIGUES, A.M. Os crimes de abuso de mercado e a "Escada impossível" de Escher (o Caso do Spoofing). Revista Julgar, nº 45, 2021.Disponível aqui.
8 NERANTZI, Elina; SARTOR, Giovanni. 'Hard AI Crime': The Deterrence Turn. Oxford Journal of Legal Studies, Volume 44, Issue 3, Autumn 2024, Pages 673-701. Disponível aqui.
9 DIAS, Jorge de Figueiredo, Direito Penal. Parte Geral. Tomo I, Questões Fundamentais. A Doutrina Geral do Crime, 3.ª edição, Coimbra, Gest Legal, 2019.
10 HALLEVY, Gabriel. The Criminal Liability of Artificial Intelligence Entities - from Science Fiction to Legal Social Control. Akron Intellectual Property Journal, Akron, v. 4, n. 2, p. 171-199, 2010. Disponível aqui. Acesso em: 13 ago. 2025.