Por que é tão difícil regular tecnologias disruptivas?
quinta-feira, 28 de agosto de 2025
Atualizado em 27 de agosto de 2025 09:29
A regulamentação de tecnologias disruptivas, como bem observou o Fórum Econômico Mundial, é complexa, porque esses sistemas "...utilizam tecnologia avançada em ambientes inovadores e em rápida transformação e, portanto, são quase impossíveis de definir com especificidade suficiente para permitir que o longo processo regulatório siga seu curso".1 O Fórum propõe o emprego do princípio de "cumprir ou explicar" (comply or explain). Essa abordagem regulatória, amplamente utilizada em governança corporativa, especialmente em códigos de boas práticas adotados por empresas, estabelece que as organizações devem cumprir determinadas diretrizes ou, caso não o façam, expliquem publicamente os motivos para o descumprimento.
O avanço tecnológico dos sistemas da inteligência artificial desperta dúvidas entre legisladores e gestores públicos diante da necessidade de acrescentar sempre novos dispositivos às leis vigentes no sentido de atualizá-las continuamente, o que na maioria das vezes levanta questões e dúvidas sobre esforços regulatórios, direitos, a base ética e sua eficácia. Todos nós sabemos que o arcabouço regulatório atual tem um ritmo próprio, extremamente lento em comparação ao ritmo das tecnologias disruptivas.
Neste contexto, torna-se fundamental que a regulação de tecnologias disruptivas observe princípios jurídicos essenciais, especialmente os relacionados à proporcionalidade, minimização de dados e proteção de direitos fundamentais, notadamente a privacidade. A LGPD, nesse sentido, oferece balizas para que qualquer regulação mantenha equilíbrio entre inovação e salvaguarda dos direitos dos titulares de dados.
Neste sentido, surgem diferentes propostas para que, ao invés de criar estruturas para regular os sistemas de IA, haja uma regulamentação dos ambientes de produção de sistemas de IA, como propõem Agathe Balayn e Seda Gürses, em artigo2. Elas argumentam que "a versão final da Lei de IA distribui responsabilidades entre o que chama de 'cadeias de valor', reconhecendo os muitos provedores, implantadores e usuários envolvidos em ambientes de produção de IA. Isso é promissor, mas é difícil avaliar se a Lei de IA pode controlar ambientes de produção de software que estão em desenvolvimento há décadas. Por exemplo, as propostas para sandboxes, monitoramento e padrões resultantes não levam em conta as atualizações contínuas do sistema, a complexidade da coordenação de múltiplos atores ou a concentração de infraestruturas computacionais. A Lei também não aborda os danos mais amplos desse ambiente de produção que afetam usuários, instituições, trabalhadores...".
Dessa forma, propõem que haja regulamentação dos ambientes de produção ágeis para tornar a normatização dos serviços mais robusta e voltada ao interesse público. As autoras lembram que a implantação de serviços ágeis, globais e em larga escala é negócio que envolve poucas empresas. E que a lei existente pode ser aplicada a provedores, implantadores e usuários de IA, mas não chega a ambientes de produção ágeis de IA, o que seria uma falha porque não se adapta aos avanços tecnológicos e não administra a integralidade dos riscos que afetam a aplicação da IA.
Esse debate sobre a legislação ao uso da IA está longe de se esgotar. Para Julia Black - professora de Direito da London School of Economics -, em artigo (Regulating AI and Machine Learning: Setting the Regulatory Agenda), escrito em coautoria Andrew Murray, também professor da LSE, as funções regulatórias de tecnologias, como os sistemas de IA, podem ser complexas, confusas e altamente imperfeitas: "...podem ser exercidas principalmente por um ator ou dispersas entre vários atores dentro de um sistema. Quanto maior a dispersão e fragmentação dos atores no desempenho da regulação, incluindo a definição do problema/objetivos, maior a policentricidade do regime. Um regime, sistema ou rede regulatória é um conjunto de atores inter-relacionados que tentam, em conjunto, abordar um conjunto específico de problemas para atingir um conjunto de objetivos; seus limites são definidos pela definição do problema que está sendo abordado e têm alguma continuidade ao longo do tempo."3
No artigo, os dois autores conseguiram modelar em seis estágios de desenvolvimento uma tecnologia disruptiva, desde sua teoria até sua regulamentação. São elas: comprovação do conceito, desenvolvimento de protótipo, desenvolvimento de sistema comercial de fabricação e distribuição, licenciamento, comercialização e regulação. De acordo com Black e Murray, a abordagem de regulação não pretende mais interferir nas tecnologias, passando a concentrar-se principalmente em preocupações relativas à segurança pública, à proteção de dados pessoais e à responsabilização dos agentes.
Em conclusão, os autores entendem que há poucas evidências de que os reguladores tenham a capacidade para avaliar os sistemas de IA: "As assimetrias de conhecimento e habilidades são amplificadas na área altamente técnica da IA. E podemos ver, a partir dos debates atuais em diversas áreas, que os sistemas regulatórios existentes simplesmente não capturam o uso de IA e ML, permitindo que operem nas bordas dos perímetros regulatórios existentes ou escapem completamente deles. O domínio atual por empresas significa que a IA provavelmente será desenvolvida e comercializada de forma semelhante aos produtos da internet e serviços online."
A regulamentação de tecnologias avançadas, como a LLMs - Large Language Models não podem funcionar como outros sistemas conhecidos, caso da aviação a energia nuclear, por exemplo, porque seriam espécies de caixas-pretas, segundo estudo de Judge, Nitzberg e Russell: "A natureza de caixa-preta das LLMs impede esse tipo de rastreamento da falha até sua fonte e a correção para evitar sua recorrência. Como, na IA generativa, o código não opera com previsibilidade típica de um sistema de software tradicional, uma abordagem regulatória baseada em especificações, auditorias e testes pode ser insuficiente para garantir segurança e confiabilidade. Argumentamos que o papel essencial da regulamentação é prevenir proativamente danos de arquiteturas inseguras, ao mesmo tempo em que financiamos, desenvolvemos e incentivamos arquiteturas com as propriedades de segurança apropriadas para um mundo de máquinas inteligentes".4
Diante deste cenário de regulamentação altamente complexo, destaca-se a necessidade de adoção de mecanismos regulatórios flexíveis, que permitam respostas rápidas e eficazes aos riscos emergentes, sempre observando os limites legais e constitucionais relativos à proteção de dados, à privacidade e à proporcionalidade das medidas implementadas.
Diante deste cenário de regulamentação altamente complexo das tecnologias disruptivas, uma das propostas mais viáveis é a opção por uma regulamentação adaptativa, capaz de permitir alterações diante de modelos dinâmicos, como propõe o Fórum Econômico Mundial. Esse novo arcabouço legal seria forjado por um feedback rápido para avaliação e mudança na regulação de insumo para resultados, deixando em aberto a possibilidade de convergência regulatória.
O projeto brasileiro de regulação do uso da IA (PL 2.338/23), em tramitação no Congresso Nacional, segue a premissa da legislação da União Europeia de regulação e é baseado em riscos, que nem sempre podem ser quantificáveis quando se trata de tecnologias disruptivas. No artigo "O Papel do Risco nos Processos Regulatórios", Júlia Black analisa a questão e aponta quatro focos, dos quais os riscos devem ser vistos - o risco enquanto objeto de regulação, seu uso para justificar a regulação, enquadramento das organizações reguladoras e procedimentos e as relações de responsabilização.
Portanto, ao tratar da regulação de tecnologias disruptivas, é imprescindível que o legislador brasileiro se inspire nas experiências internacionais, mas sem perder de vista as peculiaridades do ordenamento jurídico nacional e as garantias fundamentais previstas na CF/88 e na LGPD. O desafio está em construir normas que promovam a inovação, mas também assegurem segurança jurídica, proteção efetiva dos dados pessoais e respeito aos direitos dos titulares. Qualquer avanço regulatório, portanto, deve ser acompanhado de mecanismos de fiscalização, transparência e accountability, sempre preservando a proporcionalidade e a finalidade legítima do tratamento de dados.
A evolução tecnológica demanda dos reguladores um esforço permanente de atualização e revisão das normas existentes. Nesse contexto, a criação de estruturas regulatórias capazes de acompanhar a velocidade das inovações é condição essencial para a efetividade do controle estatal e para a preservação dos direitos fundamentais. É importante destacar que, ao tratar de tecnologias disruptivas, a legislação deve ser construída sobre princípios sólidos de responsabilidade, segurança e respeito à privacidade, evitando tanto o excesso regulatório quanto a omissão diante dos riscos concretos.
Além disso, a multiplicidade de atores envolvidos no desenvolvimento e uso de tecnologias avançadas, conforme apontado por Julia Black e Andrew Murray5, exige a adoção de modelos regulatórios policêntricos e colaborativos. Esse cenário implica na necessidade de diálogo constante entre entes públicos, setor privado e sociedade civil, para que se possa identificar, de modo tempestivo, novas ameaças à integridade dos sistemas, à ordem econômica e aos direitos individuais.
Outro ponto fundamental é a assimetria de informações entre agentes reguladores e empresas desenvolvedoras de tecnologias. Tal desequilíbrio demanda, além de instrumentos de regulação clássica, a implementação de mecanismos de transparência, auditoria e prestação de contas, que permitam o escrutínio público das práticas adotadas por provedores de serviços disruptivos. Nesse sentido, o fortalecimento institucional das autoridades de proteção de dados, como previsto na LGPD, revela-se imprescindível para garantir a efetividade das normas e a tutela dos titulares de dados.
Em relação à adaptação do ordenamento jurídico brasileiro, observa-se que o PL 2.338/23, inspirado pela abordagem europeia, prioriza o gerenciamento de riscos, ainda que nem sempre tais riscos possam ser plenamente quantificados diante da volatilidade dos cenários tecnológicos. Esse modelo, baseado na precaução e na análise constante de riscos, deve ser acompanhado de revisões periódicas, com a finalidade de evitar lacunas normativas e promover o alinhamento às melhores práticas internacionais de governança e proteção de dados.
Por fim, destaca-se que a efetividade de qualquer arcabouço regulatório depende da existência de mecanismos de fiscalização e sanção adequados, bem como de estratégias de capacitação contínua dos agentes públicos responsáveis por sua implementação. A regulamentação de tecnologias disruptivas não pode prescindir de mecanismos sólidos de enforcement, tampouco de incentivos à autorregulação e ao desenvolvimento de culturas organizacionais pautadas pela ética e pela responsabilidade social.
Diante do exposto, pode-se afirmar que a regulação de tecnologias disruptivas deve ser dinâmica, plural e permanentemente aberta ao diálogo entre as diversas instâncias do Estado e da sociedade, sempre guiada pelos princípios constitucionais da dignidade da pessoa humana, do respeito à privacidade e da proteção dos dados pessoais, como reafirmado pela LGPD.
A dificuldade de se regular tecnologias disruptivas decorre, em grande parte, da ausência de precedentes jurídicos claros e da velocidade com que tais tecnologias se inserem no cotidiano social e econômico. A incerteza sobre os impactos futuros dessas inovações exige que o legislador adote uma postura de cautela, mas também de flexibilidade, permitindo ajustes normativos conforme as tecnologias evoluem e novos riscos emergem. Nesse contexto, o princípio da precaução, frequentemente utilizado em temas ambientais, pode ser adaptado para o campo da tecnologia, orientando o desenvolvimento de políticas públicas que antecipem cenários e busquem mitigar eventuais danos à coletividade e aos direitos individuais.
Outro aspecto relevante é o papel das autoridades independentes, como as agências reguladoras e as autoridades nacionais de proteção de dados. A autonomia dessas instituições é fundamental para garantir a aplicação imparcial das normas, a fiscalização efetiva e a resposta célere às demandas que surgem a partir da implementação de novas soluções tecnológicas. O fortalecimento das competências técnicas dessas autoridades deve ser prioridade, inclusive por meio de investimentos em capacitação e intercâmbio internacional, o que permite a incorporação das melhores práticas globais ao contexto nacional.
A experiência comparada revela que o sucesso regulatório depende não apenas da qualidade das normas, mas também da existência de canais institucionais de diálogo e participação social. A consulta pública, as audiências regulatórias e a transparência nas decisões são instrumentos que conferem legitimidade ao processo normativo e permitem o ajuste contínuo das regras, à luz das contribuições recebidas dos diversos setores envolvidos.
Do ponto de vista econômico, a regulação de tecnologias disruptivas deve também considerar o impacto sobre a competitividade, a inovação e o desenvolvimento sustentável. Excessos regulatórios podem sufocar iniciativas legítimas e afastar investimentos, enquanto a ausência de normas claras pode gerar insegurança jurídica e favorecer práticas abusivas. Assim, o desafio consiste em encontrar o ponto de equilíbrio, promovendo um ambiente favorável à inovação, mas resguardando, ao mesmo tempo, os interesses coletivos e individuais tutelados pela Constituição e pela legislação infraconstitucional.
Por fim, ressalta-se que, em temas de alta complexidade técnica, como a inteligência artificial e as grandes plataformas digitais, a regulação deve estar ancorada em evidências empíricas e em avaliações de impacto regulatório, assegurando que as medidas adotadas sejam proporcionais aos riscos identificados, eficazes na proteção de dados e aptas a promover o desenvolvimento tecnológico em conformidade com os valores fundamentais da sociedade. O compromisso permanente com a atualização normativa, a cooperação internacional e a promoção de uma cultura de respeito à privacidade são pressupostas essenciais para o êxito regulatório no cenário contemporâneo.
Em síntese, a regulação de tecnologias disruptivas no Brasil demanda uma abordagem multifacetada, baseada no diálogo entre setores público e privado, na proteção efetiva dos direitos fundamentais, na observância das melhores práticas internacionais e na adoção de mecanismos regulatórios flexíveis, proporcionais e adaptáveis à evolução tecnológica. A experiência internacional demonstra que o caminho do equilíbrio - entre inovação, segurança jurídica e proteção de dados - é o único capaz de garantir não apenas a eficácia das normas, mas, sobretudo, a confiança da sociedade no uso responsável das novas tecnologias.
__________________
1 Disponível aqui.
2 Misguided: AI regulation needs a shift in focus | Internet Policy Review
3 Disponível aqui.
4 When code isn't law: rethinking regulation for artificial intelligence | Policy and Society | Oxford Academic
5 The Role of Risk in Regulatory Processes | The Oxford Handbook of Regulation | Oxford Academic