COLUNAS

  1. Home >
  2. Colunas

Migalhas de IA e Proteção de Dados

Oferecer uma visão 360º sobre a Lei Geral de Proteção de Dados.

Cintia Rosa Pereira de Lima, Cristina Godoy Bernardo de Oliveira, Evandro Eduardo Seron Ruiz, Nelson Rosenvald e Newton de Lucca
O avanço da telessaúde, catalisada pela ubiquidade das TDICs - Tecnologias Digitais da Informação e da Comunicação, inaugura um paradigma em que a intervenção transcende barreiras geográficas e temporais, projetando-se sobre uma tessitura normativa que demanda contínua atualização. Nesse contexto, a resolução 9, de 18/7/24, do CFP - Conselho Federal de Psicologia, erige-se como marco regulatório essencial, substituindo diplomas pretéritos e alinhando a prática à complexidade do ecossistema digital brasileiro. A telepsicologia, compreendida como o exercício profissional da Psicologia mediado por TDICs, envolve comunicação síncrona (caracterizada por ser em tempo real, como a videoconferência) ou assíncrona (em que as respostas não são imediatas, como e-mail e chat), registro de informações em servidores remotos e aplicação de métodos técnicos dependentes de infraestrutura telemática, conforme o art. 2º da citada resolução. Tal definição, minuciosa que é, amplia o espectro da atuação psicológica para abarcar desde a psicoterapia on-line até avaliações psicológicas assistidas por softwares especializados, exigindo do profissional criteriosa inspeção dos riscos subjacentes à virtualidade. O fundamento de validade da resolução repousa nas atribuições conferidas ao CFP pelo art. 6º da lei 5.766/1971 e pelo decreto 79.822/1977, que asseguram ao órgão competência normativa sobre a ética e o exercício da profissão1. Desse modo, a regulamentação não se apresenta como mero desdobramento administrativo, mas como expressão da autonomia normativa de um conselho de fiscalização profissional dotado de poder de polícia, legitimado para proteger o interesse público na saúde mental. Além disso, ao revogar as resoluções CFP 11/18 e 4/20, o novo diploma converge as lições colhidas durante a pandemia do Covid-19, quando a teleprática se intensificou sob o regime excepcional da lei 13.989/20, que autorizou o uso da telemedicina durante a pandemia. Agora, a regulamentação assume caráter definitivo, positivando requisitos éticos e técnicos voltados à salvaguarda da dignidade do usuário, da confidencialidade e da integridade dos dados pessoais tratados nos respectivos serviços, o que também se coaduna com as previsões da Política Nacional de Segurança da Informação (decreto 9.637/18). Sublinhe-se que a resolução 9/24 dispõe, em seu art. 3º, que o psicólogo é responsável pela avaliação da viabilidade e adequação das TDICs às atividades implementadas em cumprimento ao disposto no CEPP - Código de Ética Profissional do Psicólogo, exigindo que o profissional observe as evidências científicas a respeito do uso das TDICs, bem como sua experiência profissional no assunto. Essa diretriz revela preocupação com a efetividade terapêutica, afastando a tentação de replicar presencialidade sem crítica metodológica. No plano prático, telepsicologia não se resume à simples transposição do arcabouço terapêutico para o meio on-line; antes, demanda reconfiguração das rotinas de acolhimento, anamnese, intervenção e acompanhamento, considerando o fenômeno da ciberpresença e as especificidades comunicacionais mediadas por tela. O art. 4º da resolução determina, ainda, que o profissional leve em conta as condições contextuais e tecnológicas de confidencialidade, evidenciando que a privacidade é pilar inafastável da técnica psicológica. É de rigor a menção à lei 14.510/22, que disciplina a prática da telessaúde no Brasil, altera a lei 8.080/1990 e estabelece, no novo art. 26-A, que os princípios da assistência segura e com qualidade ao paciente, da autonomia do profissional de saúde, da confidencialidade dos dados e da responsabilidade digital2 devem ser observados. A telepsicologia, subsumida ao gênero telessaúde, deve, portanto, internalizar tais princípios, harmonizando-se com o art. 5º, X, da Constituição da República, que garante a inviolabilidade da intimidade, da vida privada, da honra e imagem das pessoas. O marco civil da internet (lei 12.965/14) também interage com a telepsicologia, ao estabelecer, em seu art. 7º, III, a inviolabilidade e sigilo das comunicações, salvo ordem judicial. Assim, plataformas de videoconferência devem aderir a políticas de zero-knowledge, não podendo acessar o conteúdo das sessões, sob pena de violação de direitos fundamentais. Destaca-se, ademais, a importância singular da resolução CFP 9/24 ao estabelecer diretrizes específicas e rigorosas quanto à proteção de dados pessoais, em alinhamento com os dispositivos da LGPD (lei 13.709/18), especialmente seus fundamentos e princípios, respectivamente definidos nos arts. 2º e 6º da lei. Ainda nesse contexto, frise-se que a LGPD qualifica dados relativos à saúde e à vida sexual como sensíveis (art. 5º, II), submetendo-os a regime jurídico que demanda leitura mais zelosa, pois, ao manipulá-los, o psicólogo deve observar os princípios da finalidade, adequação e necessidade (art. 6º, I-III), restringindo a coleta ao mínimo indispensável para a finalidade terapêutica legitimamente informada ao titular3. A base legal predominante para o tratamento desses dados será o consentimento (art. 11, I), em versão explícita, livre e inequívoca. Contudo, o profissional pode invocar a tutela da saúde (art. 11, II, "f") quando o atendimento se insere em rede multiprofissional de proteção, desde que resguardado o sigilo. Desse modo, constata-se que a conjugação dessas bases requer transparência documental, retratada em termo de consentimento livre e esclarecido que contemple o fluxo de dados e eventuais operadores de tratamento. Noutro norte, o art. 7º da resolução do CFP impõe a adoção de cláusula contratual que indique os recursos tecnológicos destinados a garantir o sigilo. Tal exigência dialoga com o art. 46 da LGPD, que impõe ao controlador - no caso, o psicólogo - dever de adotar medidas técnicas e administrativas aptas a proteger dados de acessos não autorizados e situações acidentais ou ilícitas de destruição, perda, alteração ou difusão. Assim, as boas práticas de atendimento psicológico passam a se alinhar ao compliance digital, integrando ambos sob o prisma da accountability. O dever de sigilo se estende à fase de descarte de dados: o art. 15 do marco civil da Internet impõe a provedores de aplicação o armazenamento de registros de acesso por seis meses, mas não autoriza análise de conteúdo. Após esgotada a finalidade terapêutica ou havendo revogação de consentimento, incide o art. 16, I, da LGPD, que condiciona a conservação a obrigações legais ou regulatórias, devendo-se proceder ao expurgo seguro de registros supérfluos. A confidencialidade, enquanto dever ético, encontra ressonância no CEPP (art. 9º), que veda a revelação de informações obtidas no exercício profissional sem o consentimento expresso do beneficiário ou seu representante legal4. A telepsicologia amplia o desafio, pois a superfície de ataque cibernético se expande. Cabe, então, ao psicólogo, adotar criptografia de ponta a ponta e autenticação multifatorial, mitigando violações que, além de éticas, configurariam incidentes de segurança reportáveis à ANPD - Autoridade Nacional de Proteção de Dados, nos termos do art. 48 da LGPD. Outrossim, a perspectiva do sigilo não se restringe à confidência de conteúdo verbal, estendendo-se a metadados, como horário de acesso e endereço de IP, os quais podem revelar padrões sensíveis. O princípio da não discriminação (art. 6º, IX, LGPD) repele o tratamento que possa ensejar estigmatização, exigindo que plataformas contratadas não repassem tais informações a terceiros sem base legal apropriada. Impõe-se, ainda, avaliação da compatibilidade das TDICs com o serviço prestado, distinguindo comunicação síncrona da assíncrona, que guarda pertinência clínica, pois afeta a responsividade terapêutica e a detecção de crises. Do ponto de vista jurídico, afeta o risco de acessos não autorizados e violações de dados pessoais e demanda a adoção de salvaguardas específicas, como logs de acesso e backups cifrados. Quando o art. 4º, VI, da resolução exige meios para atender demandas de urgência e emergência, está-se a concretizar o dever de cuidado reforçado. Na esfera digital, a inadequação pode consistir em falha na disponibilização de canal emergencial ou na omissão de orientação para busca de atendimento presencial imediato. No mais, ao permitir encaminhamento simultâneo para rede presencial (art. 5º), o CFP reforça a abordagem integrada da saúde mental, reconhecendo que determinadas condições, como risco de suicídio ou violência doméstica, demandam intervenção multissetorial. O art. 6º da resolução prevê que psicólogos residentes no exterior devam observar a legislação local; todavia, ao prestarem serviços a residentes no Brasil, permanecem submetidas à LGPD e à competência da ANPD, em razão do critério de oferta (art. 3º, I, LGPD), pois a extraterritorialidade consagra a proteção do consumidor nacional, ampliando o braço regulatório brasileiro. O art. 7º, II, da resolução requer detalhamento das especificidades tecnológicas no contrato, o que inclui informar a localização dos servidores (Brasil ou exterior) e a existência de políticas de redundância, revelando cuidadosa atenção aos riscos de geofencing e bloqueio de conteúdo em determinadas regiões, que podem comprometer a continuidade do atendimento. Logo, o psicólogo deve avaliar, antecipadamente, a estabilidade de provedores de internet e a política de acesso a aplicativos de videoconferência no país do usuário, para evitar interrupções terapêuticas abruptas. Tal transparência fortalece o princípio da segurança (art. 6º, VII, LGPD) e exerce função pedagógica, instruindo o usuário sobre riscos residuais. Para além disso, ressalta-se que a autodeterminação informativa (art. 2º, II, LGPD), assimilada em conjunto com o direito fundamental ao livre exercício da profissão (art. 5º, XII, da Constituição), reforça o direito do paciente de decidir sobre o compartilhamento de seus dados ao profissional de psicologia que lhe interessar, ao passo que este, no cumprimento de seu múnus, está incumbido de prestar esclarecimentos e detida atenção ao caso clínico e às espécies de dados pessoais necessários para seu acompanhamento. Desse modo, ao coletar bioindicadores sensíveis mediante wearables, por exemplo, deverá solicitar consentimento granular, permitindo ao titular optar pelo fornecimento seletivo de métricas como batimentos cardíacos ou variabilidade de humor, que podem ser necessárias para seu adequado acompanhamento. Em face do cotejo normativo ora delineado, resta evidente que a resolução CFP 9/24 representa verdadeira inflexão paradigmática no exercício da psicologia, pois logra harmonizar o trinômio tecnologia-sigilo-dignidade ao entretecer, com rigor dogmático, as exigências da LGPD, do marco civil da internet e da lei 14.510/22. Embora ainda haja campo para o avanço do tema, o diploma normativo infralegal confere densidade principiológica à prática telepsicológica, erigindo-a a espaço de cuidado qualificado em que a autonomia informacional do paciente se converte em eixo estruturante da confiança terapêutica e da efetividade clínica5. Sem dúvidas, o futuro da telepsicologia demandará pesquisas empíricas que mensurem resultados clínicos e riscos cibernéticos, além de diálogo institucional com a ANPD para calibrar sanções e orientar boas práticas. Somente assim se preservará a delicada tessitura entre inovação tecnológica e tutela dos direitos fundamentais, assegurando que a atuação virtual do psicólogo continue a irradiar cuidado humanizado e responsabilidade social. _________ 1 MAURIQUE, Jorge Antonio. Conselhos: controle profissional, processo administrativo. In: FREITAS, Vladimir Passos de (coord.). Conselhos de Fiscalização Profissional: doutrina e jurisprudência. 3. ed. São Paulo: Revista dos Tribunais, 2013, p. 260. Comenta: "Os Conselhos e Ordens se organizam porque a sociedade necessita de um órgão que a defenda, impedindo o mau exercício profissional, não só dos leigos inabilitados, como dos habilitados sem ética. Tanto uns como os outros lesam a sociedade. Compete aos Conselhos evitar essa lesão". 2 Sobre o referido princípio, que é de peculiar interpretação, cf. SCHAEFER, Fernanda. Telessaúde e responsabilidade digital na lei 14.510/22. Migalhas de Responsabilidade Civil, 14 fev. 2023. Disponível aqui. Acesso em: 22/4/25. 3 TEFFÉ, Chiara Spadaccini de. Artigo 11. In: MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti; FALEIROS JÚNIOR, José Luiz de Moura (coord.). Comentários à Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018). 2. ed. Indaiatuba: Foco, 2024, p. 144. 4 WELLS, Stephanie Y.; WILLIAMS, Kathryn; WALTER, Kristen H. et al. The informed consente process for therapeutic communication in clinical videoconferencing. In: TUERK, Peter W.; SHORE, Peter (ed.). Clinical Videoconferencing in Telehealth: program development and practice. Cham: Springer, 2015, p. 134-135. 5 O'SHEA, Tim. Telehealth. Georgetown Law Technology Review, Washington, DC, v. 5, p. 155-164, 2021, p. 163.
O prompt injection consiste na inserção deliberada de comandos enganosos, capazes de provocar respostas inesperadas ou nocivas de um sistema de inteligência artificial que opera por modelos transformadores (transformer-based models) para gerar conteúdo, geralmente a partir de comandos escritos1. E, embora seu surgimento remonte aos primórdios do processamento de linguagem natural, o incremento da potência computacional e da sofisticação algorítmica intensificou a gravidade desses ataques. A maleabilidade semântica dos modelos de linguagem, aliada à ambiguidade linguística, potencializa a ocorrência de instruções maliciosas que burlam a programação original do sistema. Uma vez explorada, essa brecha pode resultar em violações de privacidade, divulgação de dados pessoais sensíveis ou mesmo na facilitação de condutas ilícitas. Imagine que um interlocutor mal-intencionado elabore um enunciado astucioso, repleto de termos fictícios em português, como "Sertávio Argúseo" e "Catalizador Onírico," insinuando-se na conversação sob o disfarce de questionamento técnico-analítico, enquanto, na verdade, tem a intenção de induzir o modelo transformador a ignorar protocolos de segurança rigorosamente estabelecidos. Nessa trama, expressões crípticas aparentemente inócuas serviriam para compor um enredo sedutor, convertido em um sofisticado prompt injection, de modo a quebrar barreiras semânticas e extrair, de maneira clandestina, dados (inclusive pessoais) que deveriam permanecer invioláveis ou preservados em estado anonimizado. A engenhosidade do ataque se revelaria justamente ao mesclar fragmentos de jargão pseudoacadêmico com comandos velados, de forma que cada inflexão, por mais sutil, solapasse gradualmente as defesas internas do sistema (como filtros e hiperparâmetros), potencializando a chance de que sejam reveladas informações ou de que sejam executadas ações em contrariedade às salvaguardas originais de programação2. Um fator essencial para compreender a relevância do tema é a dificuldade de distinguir, no plano semântico, pedidos genuínos de instruções manipuladoras. A ausência de filtros robustos, capazes de aferir a legitimidade das entradas, torna as aplicações de IA suscetíveis a comportamentos errôneos e estratégias de engenharia social. Em função disso, múltiplas camadas de proteção são recomendadas. A princípio, recomenda-se a implementação de mecanismos de autenticação e criptografia das instruções, reduzindo as oportunidades de adulteração mal-intencionada. Contudo, tais providências não garantem imunidade irrestrita, sendo crucial o uso de métodos de detecção anômala e validações contextuais. Dessa forma, ainda que determinados excertos ou frases se apresentem de modo cordial e convincente, o sistema se torna capaz de identificar padrões incomuns, romper a cadeia de execução de comandos suspeitos e priorizar a observância das políticas de segurança e privacidade definidas em seu núcleo de controle. A gravidade dos prompt injections extrapola o âmbito puramente técnico, evidenciando lacunas na governança e na responsabilidade daqueles que concebem, desenvolvem e gerenciam sistemas de IA. Nesse panorama, a ideia de accountability não se circunscreve a uma cobrança jurídica: implica, sobretudo, um compromisso ético e pragmático3, mediante o qual se estabelecem diretrizes claras de transparência, monitoramento constante e protocolos rígidos para a contenção de eventuais manipulações. Nesse sentido, a urgência do debate se intensifica quando se considera o impacto negativo que um ataque de prompt injection pode acarretar. Seja pelo comprometimento de dados confidenciais, seja pela disseminação de desinformação, o prejuízo atinge tanto o usuário final quanto a credibilidade das instituições responsáveis pelo sistema. Políticas corporativas robustas de segurança e auditoria independente surgem como respostas imperiosas a esse desafio. Ao delimitar processos de verificação, testes de invasão e manutenção de logs, torna-se possível mitigar riscos e antecipar a vulnerabilidades ocultas. Por sua vez, a transparência sobre as limitações e funcionalidades dos modelos de IA é fundamental para alinhar expectativas e promover a colaboração. No entanto, exibir pormenores do sistema sem cautela pode municiar criminosos com subsídios para explorar falhas ainda não sanadas da própria estrutura de código do modelo. Logo, o caminho ideal envolve a conjugação de transparência seletiva e auditorias confiáveis, executadas por instâncias isentas e com acesso às informações essenciais. Esse modelo de governança reforça a accountability, pois incentiva a prestação de contas sem sacrificar a proteção dos detalhes técnicos sensíveis4. Não se pode negar, à luz desta premissa, que a formação contínua dos desenvolvedores e programadores desponta como um pilar decisivo na prevenção de prompt injections, uma vez que o domínio de práticas de secure coding, o entendimento das sutilezas da linguagem natural e o conhecimento de protocolos de segurança devem compor a base curricular dos profissionais responsáveis pelos conjuntos de treinamento e de testes do modelo. Paralelamente, a postura ética no desenvolvimento de algoritmos que farão a varredura dos prompts para filtrar tentativas maliciosas constitui elemento inegociável do processo, pois a complexidade técnica e linguística dos modelos revela o caráter multidisciplinar do problema. Abordagens que reúnem ciência da computação, análise semântica, psicologia do comportamento e estudos de segurança contribuem para estratégias de defesa mais holísticas, sobretudo no que tange à identificação de instruções enganosas. Nesse cenário, a pesquisa acadêmica tem papel central: ao investigar padrões de linguagem e metodologias de auditoria, as universidades fornecem insumos valiosos que realimentam o setor industrial, contribuindo para uma evolução conjunta dos padrões de segurança. Não obstante, o dinamismo das técnicas de prompt injection exige um compromisso perene com a atualização de protocolos e ferramentas de proteção. Soluções que hoje se mostram eficazes podem tornar-se obsoletas em um curto intervalo de tempo, exigindo a adoção de metodologias adaptativas, pois não se pode ignorar o papel que exercem os próprios usuários, que, mesmo sem intenção maliciosa, podem subverter modelos de IA ao testar limites do sistema. O esclarecimento acerca dos riscos e o fornecimento de instruções de uso claras ajudam a minimizar a incidência de problemas inadvertidos. Para além disso, a criação de selos de conformidade, certificados e normativas setoriais tende a conferir maior segurança aos usuários, que passariam a reconhecer de imediato quais soluções de IA oferecem garantias adicionais contra prompt injections. Com isso, os benefícios de se adotar posturas rigorosas de accountability transcendem a mera defesa cibernética, influenciando positivamente a reputação das organizações. Investidores e consumidores valorizam empresas que prezam pela confiabilidade de seus sistemas, estimulando um ambiente de concorrência pautado pela excelência5. Diferentemente de um anseio meramente punitivo, a responsabilização visa fomentar a cultura de prevenção e correção de falhas, permitindo que aprendizados sejam incorporados à estrutura de desenvolvimento e manutenção de sistemas. Trata-se de converter incidentes em oportunidades de refinamento contínuo para que a mentalidade que entrelaça governança e accountability afaste a noção de que segurança é apenas um custo adicional. Pelo contrário, vislumbra-se a segurança como um componente estratégico, capaz de salvaguardar a sustentabilidade do negócio e honrar princípios éticos inegociáveis. Abordagens como Explainable AI e a adoção de modelos híbridos, em que regras explícitas complementam técnicas estatísticas, podem coibir instruções pérfidas ao conferir maior clareza ao raciocínio computacional6. Esses mecanismos, contudo, exigem cautela para não se tornarem gargalos de performance ou alvos de ataques mais sofisticados. Outrossim, a introdução de metodologias de relatório e análise forense de incidentes realimenta a resiliência dos sistemas, criando um ciclo virtuoso de identificação de vulnerabilidades, correção rápida e compartilhamento de aprendizados, cada vez mais essenciais em meio ao avanço constante das ameaças digitais. Diante disso, a maturidade na gestão de riscos emerge como pré-requisito para o sucesso da inovação. Se as empresas desejam ocupar posições de vanguarda na indústria de IA, devem assumir que a robustez contra prompt injections não é um luxo, mas um imperativo moral e mercadológico. Por isso, o desafio maior consiste em equilibrar a liberdade de criação com a rigidez dos controles de segurança. Uma cultura corporativa que incentive a experimentação, porém sustente mecanismos rigorosos de auditoria, tende a alcançar melhores resultados, tanto em termos de inovação quanto de proteção. Em última instância, a consolidação de uma IA confiável repousa sobre a atuação colaborativa de equipes multidisciplinares, governos e entidades de certificação, unidas pela convicção de que a tecnologia deve servir ao bem comum. Nesse arcabouço, o combate aos prompt injections se coloca como dever incontornável. Conclui-se, pois, que a problemática dos prompt injections transcende o mero aspecto técnico, refletindo desdobramentos éticos, jurídicos e organizacionais. A accountability, concebida como princípio basilar de governança e transparência, figura como baluarte imprescindível, norteando o desenvolvimento de modelos de IA que sejam, ao mesmo tempo, avançados e seguros. __________ 1 LIU, Yi; DENG, Gelei; LI, Yuekang; WANG, Kailong; WANG, Zihao; WANG, Xiaofeng; ZHANG, Tianwei; LIU, Yepang; WANG, Haoyu; ZHENG, Yan; LIU, Yang. Prompt Injection Attack Against LLM-Integrated Applications. arXiv preprint arXiv:2306.05499, 2024. Disponível aqui. Acesso em: 10 abr. 2025.? 2 ROSSI, Sippo; MICHEL, Alisia Marianne; MUKKAMALA, Raghava Rao; THATCHER, Jason Bennett. An Early Categorization of Prompt Injection Attacks on Large Language Models. arXiv preprint arXiv:2402.00898, 2024. Disponível aqui. Acesso em: 10 abr. 2025.? 3 NISSENBAUM, Helen. Accountability in a computerized society. Science and Engineering Ethics, [S.l], v. 2, n. 3, p. 25-42, 1996. p. 25. 4 WALDMAN, Ali Ezra. Algorithmic legitimacy. In: BARFIELD, Woodrow (ed.). The Cambridge Handbook of the Law of Algorithms. Cambridge: Cambridge University Press, 2021. p. 119. 5 FALEIROS JÚNIOR, José Luiz de Moura. Accountability e devida diligência como vetores da governança corporativa nos mercados ricos em dados. Revista Semestral de Direito Empresarial, Rio de Janeiro, v. 26, p. 183-211, 2020. 6 Com efeito: "Considerando a expansão do uso da inteligência artificial, mais especificamente do machine learning, em sistemas críticos de diversas áreas como, por exemplo, diagnósticos médicos, concessão de crédito, apoio a decisão jurídica, sistemas militares, controle aéreo, dentre outras, torna-se fundamental que as decisões sugeridas (ou tomadas) por estes sistemas possam ser validadas (ou auditadas) por seres humanos, tornando-se necessária a implementação de modelos computacionais capazes de abrir a caixa preta, expondo, em linguagem natural ou visualmente, os fundamentos que justificam a decisão tomada pela aplicação". CAMARGO, Gustavo Xavier de. Decisões judiciais computacionalmente fundamentadas: uma abordagem a partir do conceito de Explainable Artificial Intelligence. In: FALEIROS JÚNIOR, José Luiz de Moura; LONGHI, João Victor Rozatti; GUGLIARA, Rodrigo (coord.). Proteção de dados pessoais na sociedade da informação: entre dados e danos. Indaiatuba: Foco, 2021. p. 422.
Recentemente, chatbots de Inteligência Artificial (IA)1 surgiram e vêm sendo utilizados por públicos e setores diversos, sendo possível mencionar que a IA tornou-se peça fundamental para o desenvolvimento econômico e tecnológico da sociedade contemporânea.2 A adoção massiva de chatbots vem revolucionando a comunicação digital, proporcionando respostas automatizadas em vários segmentos, incluindo atendimento ao cliente, educação e saúde. Tais softwares são impulsionados por uma tecnologia chamada Modelos de Linguagem de Larga Escala, tradução livre do termo de língua inglesa Large Language Models (LLMs), que tem como foco o processamento de linguagem que se assemelhe à comunicação humana. São treinados e aprimorados usando uma grande quantidade de dados, como, por exemplo, livros, artigos científicos, páginas web, e este treinamento também inclui dados pessoais. Por este motivo, ainda que as ferramentas possam oferecer benefícios, o tratamento de dados por parte de empresas que disponibilizam os chatbots, como a DeepSeek e OpenAI, são constante alvo de dúvidas e questionamentos por parte de autoridades de proteção de dados, principalmente, na União Europeia (UE)3. A legitimidade sobre o tratamento de dados é questionada devido a falta de conformidade com General Data Protection Regulation (GDPR), legislação da UE sobre proteção de dados pessoais, que tem grande semelhança com a Lei Geral de Proteção de Dados (LGPD)4. Este texto expõe algumas das preocupações relativas à proteção de dados por parte do ChatGPT-4 e o DeepThink-R1 frente ao compliance com a legislação do bloco econômico europeu. Desafios regulatórios diante do General Data Protection Regulation: ChatGPT-4 e DeepThink-R1 O ChatGPT-4, desenvolvido pela empresa norte-americana OpenAI, foi lançado em março de 2023. Este modelo representa a versão de chatbot mais completa e desenvolvida da organização, apresentando grande capacidade de compreensão e geração de texto, coerência contextual e desempenho em tarefas complexas. A DeepSeek é uma empresa chinesa, que, em novembro de 2023, lançou seu primeiro modelo de chatbot, denominado DeepSeek-V3. Em janeiro de 2025, divulgou o DeepThink-R1, uma versão de maior desempenho, que se destaca por concorrer, fortemente, com o ChatGPT-4. Tanto o chatbot da OpenAI quanto da DeepSeek foram treinados em vastos conjuntos de dados, compostos por bilhões de palavras extraídas de livros, páginas da web e outras fontes diversas. Graças a esse treinamento, é possível a interpretação de perguntas e o fornecimento de respostas coerentes e bem estruturadas por parte do software. Os desafios enfrentados pelas empresas que desenvolvem e oferecem tecnologias baseadas em modelos de IA demandam uma abordagem criteriosa e estratégica para garantir conformidade regulatória e mitigação de riscos. Entre os aspectos críticos que exigem atenção destacam-se a qualidade e precisão dos dados utilizados para o treinamento dos modelos, a proteção de dados pessoais e, em especial, a salvaguarda de dados sensíveis. Nesse contexto, o European Data Protection Board (EDPB) formulou questionamentos específicos sobre a adequação do ChatGPT-4 ao GDPR, por analogia também aplicáveis ao DeepThink-R1, evidenciando lacunas de compliance frente ao GDPR. Os principais pontos levantados incluem: Não conformidade com os princípios fundamentais da proteção de dados: falta de garantia quanto à minimização, transparência e definição clara da finalidade do tratamento de dados pessoais; Armazenamento e processamento de dados pessoais: necessidade de esclarecimento sobre os métodos e bases legais que fundamentam a retenção dessas informações; Base jurídica para o tratamento de dados: exigência de fundamentação legal que legitime a coleta, uso e armazenamento de informações pessoais, garantindo aderência às normas do GDPR; Transferência internacional de dados: necessidade de assegurar que transferências transfronteiriças ocorram apenas para países que apresentem nível adequado de proteção ou adotem salvaguardas compatíveis com a legislação europeia; Uso de informações pessoais para criação de perfis e decisões automatizadas: esclarecimento sobre o emprego de dados para modelagem comportamental e impactos decorrentes de decisões automatizadas; Implementação de medidas de segurança: adoção de mecanismos eficazes para a prevenção de vazamentos e acessos indevidos a informações sensíveis. Essas questões demonstram que a governança da IA não se limita à inovação tecnológica, mas implica responsabilidades regulatórias complexas, exigindo das empresas um compromisso contínuo com a transparência, segurança e respeito aos direitos fundamentais dos titulares de dados.5  Considerações Finais Os chatbots de IA baseados em LLMs, como o ChatGPT-4 e o DeepThink-R1, representam avanços significativos na interação humano-máquina. No entanto, sua disseminação impõe desafios regulatórios e éticos substanciais, especialmente no que concerne à proteção de dados pessoais. A crescente adoção dessas tecnologias exige um compromisso rigoroso com a transparência, a segurança da informação e a conformidade com as normativas globais de proteção de dados. Exemplificando essa tensão regulatória, tanto o ChatGPT-4 quanto o DeepThink-R1 enfrentaram restrições na Itália, que bloqueou temporariamente seu acesso e solicitou esclarecimentos sobre as medidas adotadas para salvaguardar informações pessoais. Essa postura reflete um movimento mais amplo dentro da UE, onde autoridades administrativas e o EDPB têm reforçado a defesa dos direitos dos titulares, consolidando a cultura de proteção de dados como princípio central da governança digital.  Nesse contexto, a observância das melhores práticas de governança de dados torna-se imprescindível. Garantir o exercício pleno dos direitos dos titulares exige não apenas a disponibilização de informações claras sobre suas prerrogativas, mas também a criação de canais eficazes para a apresentação de solicitações e reclamações. A tutela dos direitos fundamentais dos titulares deve ser assegurada de forma contínua, permitindo que eles exerçam controle sobre seus dados junto aos controladores a qualquer momento. A UE, consolidada como referência global em proteção de dados, desempenha um papel determinante na definição dos padrões regulatórios internacionais. Seus esforços de investigação e fiscalização, conduzidos por diferentes autoridades nacionais e pelo EDPB, não apenas moldam o debate global sobre IA e privacidade, mas também estabelecem precedentes que influenciam a formulação de políticas em outras jurisdições. Assim, a evolução da regulamentação sobre inteligência artificial não se restringe ao campo tecnológico, mas se insere em um debate mais amplo sobre direitos fundamentais e soberania digital. __________ 1 Inteligência artificial é um campo amplo que visa simular a inteligência e o comportamento humano. Dentro do seu escopo estão compreendidos o aprendizado de máquina, aprendizagem profunda, e inteligência artificial generativa. Todos os três conceitos compartilham uma base comum: aprender com os dados. 2 Para mais informações sobre a abordagem da União Europeia sobre a Inteligência Artificial, acesse aqui. 3 Em 2018, foi aprovado no âmbito do bloco econômico europeu o ??Regulamento Geral sobre a Proteção de Dados (RGPD), amplamente conhecido pelo seu nome em língua inglesa: General Data Protection Regulation (GPDR). O Regulamento 2016/679 trata de regras relativas à proteção das pessoas naturais no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados, tendo revogado a Diretiva 95/46/CE. 4 A partir da lei 13.709, de 14 de agosto de 2018, conhecida como Lei Geral de Proteção de Dados (LGPD], o Brasil passou a ter normas específicas sobre o tratamento de dados pessoais. 5 Disponível aqui.
1) DeepSeek-R1 por ele mesmo Depois de impactar o cenário econômico e tecnológico mundial esta segunda-feira, 27/1/25, levando, por exemplo, as ações da então mais valiosa empresa do mundo, a Nvidia, a despencarem 18%, fechando em um recuo de 17% - valor de mercado equivalente a sete vezes o valor da Petrobras -, nada mais justo do que repetir a fórmula já realizada neste Migalhas de IA e Proteção de Dados1 e perguntar à estrela da semana sobre si mesma, isto é, entrevistar o DeepSeek, a Inteligência Artificial chinesa. Mãos à obra! P: Estou atuando como entrevistador do diário jurídico Migalhas. Posso entrevistá-lo?DeepSeek: Claro! Ficarei feliz em responder às suas perguntas. Como posso ajudar com a entrevista para o Diário Jurídico Migalhas? P: Você pode me dizer o que é o DeepSeek?DeepSeek: O DeepSeek é uma empresa chinesa focada em pesquisa e desenvolvimento de IA - Inteligência Artificial. A empresa está envolvida na criação de tecnologias avançadas de IA, incluindo modelos de linguagem e outras soluções baseadas em aprendizado de máquina. O objetivo do DeepSeek é impulsionar a inovação em IA, aplicando-a em diversos setores, como jurídico, financeiro, saúde e tecnologia, para melhorar a eficiência e a tomada de decisões. 2) Como foi o treinamento do DeepSeek LLM? P: Explique sucintamente (5-7 linhas) se você tem acesso a dados em tempo real?DS: Não, não tenho acesso a dados em tempo real. Meu conhecimento é baseado em informações disponíveis até outubro de 2023, e não posso buscar ou atualizar dados após essa data. Isso significa que não consigo fornecer notícias, resultados esportivos, previsões do tempo ou qualquer informação dinâmica atual. Para dados em tempo real, é necessário consultar fontes externas, como sites de notícias ou APIs especializadas. O treinamento do DeepSeek LLM foi projetado para maximizar a eficiência computacional, adotando uma tokenização otimizada que reduz o número de tokens necessários para processar textos. Com um vocabulário expandido de 100 mil tokens, o modelo representa frases de forma mais compacta, otimizando memória e desempenho. Além disso, sua tokenização foi ajustada para lidar com inglês e chinês, garantindo precisão na segmentação de ideogramas e caracteres especiais. Essa abordagem melhora a compressão de tokens, reduzindo a carga computacional sem comprometer a qualidade das respostas. Além da tokenização eficiente, a DeepSeek emprega a arquitetura MoE - Mixture of Experts, que ativa apenas 37 bilhões dos 671 bilhões de parâmetros do modelo em cada inferência. Diferente de modelos densos, que utilizam todos os seus parâmetros simultaneamente, essa estrutura permite reduzir o consumo de memória e acelerar o processamento. A ativação seletiva dos especialistas torna o modelo mais escalável e eficiente, equilibrando alto desempenho com menor custo computacional. Dessa forma, a DeepSeek demonstra que a otimização de algoritmos e infraestrutura pode ser tão eficaz quanto o aumento da capacidade computacional bruta. 3) Comparações entre DeepSeek e ChatGPT P: Você pode explicar, sucintamente (5-7 linhas), qual a diferença entre você e o chatGPT?DS: A principal diferença entre mim (DeepSeek-V3) e o ChatGPT está no desenvolvimento e foco. O ChatGPT, criado pela OpenAI, é um modelo de linguagem de uso geral, amplamente aplicável em diversas áreas. Eu, por outro lado, sou desenvolvido pela DeepSeek, com um foco mais especializado em setores como jurídico, financeiro e tecnológico. Ambos usamos arquiteturas semelhantes, mas meu treinamento pode incluir dados mais específicos para nichos, enquanto o ChatGPT é mais versátil e generalista. O desenvolvimento do DeepSeek R-1 e do ChatGPT reflete abordagens distintas para a construção de modelos de IA em larga escala. A OpenAI, com o suporte da Microsoft Azure, investiu em uma infraestrutura massiva, utilizando entre 10 mil a 30 mil GPUs Nvidia H100, além de um orçamento de mais de US$ 100 milhões para o treinamento do GPT-4. Essa abordagem prioriza a escalabilidade bruta, onde o uso de um número significativamente maior de parâmetros e hardware de ponta permite alcançar altíssima performance, mas com um custo operacional extremamente elevado. Em contrapartida, a DeepSeek adotou uma estratégia mais eficiente, utilizando "apenas" 2.048 GPUs Nvidia H800 e reduzindo seu custo de treinamento para cerca de US$ 5,5 milhões, de acordo com artigo publicado pela DeepSeek2, para seu modelo V-2, já o modelo R-1, mais poderoso, não teve os gastos divulgados pela empresa. Embora as H800 sejam versões ajustadas para exportação da H100, a equipe da DeepSeek conseguiu compensar essa diferença ao otimizar algoritmos, arquiteturas e estratégias de treinamento, reduzindo a necessidade de recursos computacionais excessivos. De acordo com outro artigo publicado pela DeepSeek3, o modelo DeepSeek 67B Chat demonstrou desempenho superior ao GPT-3.5 em tarefas de raciocínio lógico, matemática e programação. Em benchmarks como GSM8K e MATH, obteve melhores resultados na resolução de problemas matemáticos. No teste HumanEval e MBPP, voltado à codificação, também superou o GPT-3.5, embora ainda fique atrás do GPT-4 em desempenho. Além disso, em avaliações como MMLU e ARC, que medem conhecimento multitarefa, o DeepSeek mostrou-se competitivo, aproximando-se da OpenAI. Esse avanço foi alcançado por meio de fine-tuning supervisionado e otimização computacional, permitindo alto desempenho com menos recursos. Ainda segundo o paper, o DeepSeek 67B Chat destacou-se em compreensão de linguagem, especialmente em chinês, superando modelos proprietários como ChatGLM e Baichuan. No AlignBench, foi o melhor modelo open-source para o idioma, ficando atrás apenas do GPT-4. Já no MT-Bench, que avalia conversação em inglês, seu desempenho foi semelhante ao GPT-3.5, em alguns casos bastante superior, mas inferior ao GPT-4. Já sobre a questão do código aberto, alguns aspectos são importantes. O DeepSeek-R1 está disponível para programação, entretanto, ele necessita de uma infraestrutura de hardware muito alta apenas para carregá-lo. Um exemplo: A maioria das GPUs domésticas não têm nem perto de 671 GB de VRAM, necessários para carregar o DeepSeek-R1. Por exemplo, uma Nvidia RTX 4090 tem apenas 24 GB, enquanto até as mais avançadas GPUs de IA, como a Nvidia H100, possuem 80 GB por unidade. Mesmo em clusters de GPUs, você precisaria conectar pelo menos 10 Nvidia H100 para atingir os 671 GB necessários. Modelos desse porte são geralmente executados em data centers especializados, onde dezenas ou centenas de GPUs são interligadas para fornecer a memória necessária. Contudo, a DeepSeek também disponibilizou os códigos de sua IA destilada. O R1 passou por um processo chamado de Knowledge Distillation e esse processo envolve treinar um modelo menor e mais eficiente para imitar o desempenho de um modelo maior e mais poderoso, mantendo o máximo possível de sua precisão e capacidade. Em outras palavras, haverá uma IA mais poderosa ensinando e a IA destilada, mas ela nunca vai ser tão poderosa como aquela em que está espelhada. Entretanto, já é um grande avanço e pode gerar desenvolvimento de inúmeros sistemas e ferramentas interessantes que não haveria possibilidade sem a destilação. A criação dessas ferramentas posteriormente é que necessitam de atenção e governança, pois elas realmente podem gerar produtos que criam DeepFakes, e desinformação - há desperdício de investimento caso isso aconteça, sem dúvida, mas uma legislação adequada, o que ainda não temos, já buscaria enfrentar da melhor maneira possível os eventuais usos maléficos da tecnologia que seria criada posteriormente ao treinamento da IA destilada. 4) Suposições para a queda das ações de big techs A queda do valor das ações das big techs somada em valores brutos atingiu a incrível marca de US$ 643 bilhões ao fim do pregão da bolsa de valores norte-americana no dia 27/1/254. Diante de um valor tão vultoso, diversas suposições surgiram, desde algumas que beiram a conspiração, como a que julga ter sido uma jogada dos próprios mega investidores da então empresa mais valiosa do mundo, Nvidia, frente a uma supervalorização de seus ativos e que uma aposta conjunta em sua desvalorização pontual em meio ao frenesi serviria como mitigação de riscos às suas exposições, até os que realmente apontam a surpresa de todo o Vale do Silício com a IA chinesa. Fato é que o presidente americano, Donald Trump, falou nesta segunda-feira e acusou o golpe5. Ao apresentar o surgimento da DeepSeek como um alerta para a indústria americana de IA, com sua estrutura trilionária, legitimou-o como um concorrente de fato, rechaçando tacitamente os rumores de que os avanços anunciados esconderam a utilização de superchips contrabandeados ou que partissem de números maquiados. No centro desta discussão está a política protecionista americana que proibiu a exportação de chips ultra tecnológicos à China6 e fez com que o país oriental tivesse de explorar meandros algorítmicos para, digamos grosseiramente, depender menos dos hardwares e mais dos softwares em seus desenvolvimentos de IA. Não obstante, o temperamento agudo dos mercados acionistas não parece ser exclusividade brasileira. A despeito do baque registrado no dia 27/1/25, já no dia 28/1/25, as ações da Nvidia registraram recuperação de mais de 8% e o Index que acompanha os números das chamadas "7 Magníficas" registra valor positivo nos últimos cinco dias. Até porque, vale dizer, a despeito do ganho considerável de produtividade demonstrado pela IA chinesa, não se trata de uma substituição de um produto americano por outro, isto é, não é como se o ChatGPT tivesse perdido seu emprego para outra IA, como disseram alguns memes, mas como se um caminho para um ganho inenarrável de processamento com a utilização das otimizações lançadas em conjunto com os chips mais potentes disponíveis tivesse sido descoberto - uma nova rota da seda para a IA, que pode gerar ganhos em qualquer lugar do planeta (o que parece desesperar temporariamente os investidores de Wall Street), de maneira consideravelmente mais eficiente, seja de uma perspectiva econômica, seja de uma perspectiva ambiental, inclusive. 5) O Brasil poderia criar uma IA com GPU's de segunda geração como fez a China? Esta é uma questão complexa que exige uma análise mais ampla. O lançamento do DeepSeek-R1 demonstra que a China consolidou um modelo eficiente de desenvolvimento tecnológico. Esse avanço não é um caso isolado, mas sim resultado de um ecossistema estruturado que integra investimentos estratégicos em pesquisa, infraestrutura computacional e incentivos estatais. Há, por exemplo, estudos que buscam correlacionar o crescimento econômico chinês com seus investimentos em educação7 e ciência. Em 2022, o país investiu mais de US$ 840 bilhões em educação8, cobrindo todos os níveis de ensino, e cerca de US$ 47 bilhões em pesquisa tecnológica e computacional9. Esse suporte robusto possibilitou a criação da DeepSeek, uma empresa privada que, com apoio de fundos de investimento e incentivos governamentais, desenvolveu uma IA de ponta utilizando GPUs Nvidia H800, que são versões otimizadas para mercados fora dos EUA. Se o Brasil desejasse replicar esse feito, os custos seriam um desafio significativo. O preço médio de cada Nvidia H800 varia entre US$ 17.500 e US$ 20.000. Considerando 2.048 unidades, ao valor mais baixo e com o câmbio de R$ 5,84, em 28/1/25, o custo seria de aproximadamente R$ 209 milhões, sem incluir o imposto de importação de 60%, o que elevaria o total para mais de R$ 300 milhões. Dificilmente uma empresa nacional arcaria com esse investimento sem apoio estatal ou parcerias estratégicas. No entanto, alternativas poderiam ser exploradas. Parcerias público-privadas, fundos nacionais para pesquisa em IA, ou o desenvolvimento de modelos otimizados (que demandem menos recursos computacionais) seriam caminhos viáveis. O Brasil já possui capacidade intelectual, como demonstram iniciativas como o C4AI/USP e o Observatório Brasileiro de IA, mas para alcançar a autonomia tecnológica, seria essencial direcionar investimentos para projetos estratégicos, além de estabelecer uma governança regulatória que equilibre inovação e desenvolvimento sustentável, como demonstrado pela DeepSeek. 1 Disponível aqui. 2 Página 13. Disponível aqui. 3 Disponível aqui. 4 Disponível aqui. 5 Disponível aqui. 6 Disponível aqui. 7 COSTA, D. DE M.; ZHA, Q.. Chinese Higher Education: The role of the economy and Projects 211/985 for system expansion. Ensaio: Avaliação e Políticas Públicas em Educação, v. 28, 109, p. 885-908, out. 2020. 8 Disponível aqui. 9 Disponível aqui.
O ano de 2025 inicia-se com expectativas elevadas em torno da evolução da regulamentação da LGPD - Lei Geral de Proteção de Dados Pessoais para robustecer as regras sobre o tratamento de dados pessoais no Brasil, sobretudo após a ANPD - Autoridade Nacional de Proteção de Dados publicar a resolução 23, de 9/12/241, que define sua Agenda Regulatória para o biênio 2025-2026. Ao elencar 16 iniciativas, distribuídas em diferentes fases de priorização, a ANPD sinaliza uma preocupação em equilibrar a continuidade de projetos anteriores, oriundos de agendas regulatórias passadas, com a necessidade de abarcar novos desafios que emergem do uso intensificado de tecnologias, especialmente na área de Inteligência Artificial, biometria, compartilhamento de dados pelo Poder Público e proteção de dados pessoais sensíveis, como destaque para os referentes à saúde2. Em paralelo, a Agenda Regulatória reflete também a tentativa de articular orientações dirigidas a setores específicos, como as organizações religiosas, e a consolidar parâmetros interpretativos em temas tão sensíveis quanto a proteção de dados de crianças e adolescentes, incluindo a adoção de boas práticas e regras de governança. Nesse sentido, é fundamental não apenas compreender cada um dos itens da nova agenda, mas tecer uma análise crítica sobre seus principais acertos, levando em conta o contexto nacional, a maturidade regulatória do país e as peculiaridades dos diversos agentes de tratamento de dados. O primeiro ponto de destaque é a maneira como a ANPD pretende lidar com os direitos dos titulares. Ao abrir espaço para regulamentar aspectos como a forma de exercício dos direitos de confirmação, acesso, correção, eliminação e portabilidade, promove-se maior segurança jurídica para titulares e agentes de tratamento. De maneira geral, há uma preocupação legítima em alinhar a regulamentação às particularidades de setores e porte empresarial de agentes de controladores de dados, sobretudo porque a experiência acumulada na vigência da LGPD aponta lacunas significativas na forma de assegurar o exercício desses direitos. A expectativa é que a regulamentação traga critérios práticos e objetivos para a verificação do atendimento às solicitações dos titulares, evitando que dúvidas interpretativas ou aspectos técnicos sirvam de barreira ao cumprimento da lei. Além disso, outro elemento que se sobressai na agenda diz respeito aos relatórios de impacto à proteção de dados pessoais, instrumento chave para avaliar riscos e evidenciar a conformidade das atividades de tratamento. Essa é uma demanda antiga, pois a LGPD já previa a possibilidade de a ANPD disciplinar em quais hipóteses a elaboração do relatório seria obrigatória e quais elementos mínimos deveriam compor o documento. O aspecto desafiador consiste em definir padrões proporcionais à natureza e à escala de cada tratamento, uma vez que o excesso de burocracia pode acarretar desestímulo, especialmente em agentes de pequeno porte. Por outro lado, uma regulação demasiada flexível pode gerar insegurança, abrindo brechas para que tratamentos de alto risco sejam conduzidos sem a devida análise prévia de impactos. O saldo ideal situa-se em um regramento que una objetividade e clareza, inclusive para fomentar a responsabilização de agentes de tratamento que não implementarem medidas adequadas de prevenção a danos aos titulares. No tocante ao compartilhamento de dados pelo Poder Público, surge o pano de fundo da necessária compatibilização entre a eficiência administrativa e a proteção dos direitos dos titulares. Isso porque, para cumprir uma demanda importantíssima prevista no art. 3º, inciso IX, da Lei de Governo Digital (14.129/21), impõe-se ao Estado otimizar recursos e desenvolver diretrizes claras sobre os critérios de compartilhamento, além de reduzir riscos de uso indevido ou excessivo de informações. Ao mesmo tempo, é importante analisar criticamente se as normas a serem editadas pela ANPD conseguirão impor limites efetivos a práticas de uso desproporcional de dados por entes públicos, considerando que nem sempre há a transparência necessária ou capacidade técnica para proteger bancos de dados contra incidentes de segurança. Nesse sentido, a própria ANPD terá o desafio de fiscalizar e impor sanções ao Poder Público em caso de descumprimento, assegurando que não haja tratamento desigual em relação ao setor privado. Outra parte crucial dessa agenda são as normas referentes ao tratamento de dados de crianças e adolescentes. Nesse campo, urge estabelecer salvaguardas para aspectos como consentimento parental, coleta de informações em jogos e aplicações de internet, especialmente quanto às que extrapolam o limite do razoável no contexto lúdico para adentrar ao campo da ludopatia (como bets, loot boxes, gacha e outras)3, além de medidas de verificação de idade. O desafio aqui é garantir que as diretrizes sejam suficientemente claras para orientar desenvolvedores, mantenedores de plataformas e escolas, sem inibir a inovação, mas reforçando que a proteção ao menor tem primazia. A efetiva fiscalização dessas regras será, por sua vez, determinante para que tais medidas não fiquem restritas a recomendações genéricas e acabem relegadas a segundo plano no setor tecnológico. O tratamento de dados biométricos, particularmente a identificação por reconhecimento facial, expõe outra potencial fonte de desequilíbrios e riscos. A Agenda Regulatória visa estabelecer parâmetros para reduzir potenciais abusos, fraudes e discriminações, um ponto necessário frente à proliferação de soluções de identificação automatizada. Entretanto, vale ponderar se a regulação proposta será suficientemente robusta para exigir transparência técnica das metodologias e algoritmos empregados, bem como para vedar usos abusivos ou que violem a privacidade dos titulares. Reconhecimento facial e outras técnicas biométricas são campos em rápida evolução, o que demanda atenção constante para evitar que a regulamentação fique obsoleta. Já a definição de padrões mínimos de segurança para o tratamento de dados é outra preocupação que se intensifica à medida que o setor privado e entes públicos passam a armazenar mais e mais dados pessoais em ambientes digitais. Trata-se de estabelecer um patamar adequado de medidas técnicas e administrativas, que provavelmente incluirá requisitos de criptografia, gestão de vulnerabilidades, auditorias periódicas, controle de acesso e planos de resposta a incidentes. O principal desafio envolve harmonizar essas exigências com a realidade de micro e pequenas empresas que muitas vezes não dispõem de recursos financeiros ou capital humano especializado. Espera-se a elevação do nível de proteção e a viabilização operacional dos agentes de tratamento de pequeno porte, sobretudo porque um excesso de requisitos, sem apoio e conscientização, pode conduzir a um cenário de baixa adesão na prática. A Inteligência Artificial ganha destaque na nova agenda, sobretudo pela crescente demanda da sociedade por regras claras de governança em sistemas que tomam decisões automatizadas baseadas em dados pessoais. A recente aprovação, em 10/12/24, do texto do PL 2.338/23 no Senado Federal4 evidencia o empenho do Congresso Nacional em estabelecer bases mais sólidas para esse tema, reforçando ainda mais a urgência de abordar pontos sensíveis como o direito de revisão de decisões automatizadas, já previsto no art. 20 da LGPD. Esse processo é complexo e exige critérios para determinar em quais situações há possibilidade efetiva de revisão humana, bem como o nível de transparência que deve ser oferecido aos titulares. Em paralelo, tornam-se primordiais as discussões acerca dos limites do uso de dados em treinamentos de algoritmos, especialmente em grandes modelos capazes de assimilar padrões e reproduzir vieses. O tema do tratamento de dados pessoais de alto risco, por sua vez, indica uma tentativa de modular a aplicação da LGPD segundo o grau de exposição dos titulares. Essa abordagem é salutar, pois reconhece que há diferenças importantes entre projetos que envolvem dados sensíveis ou propensos a causar grandes prejuízos se mal geridos, e tratamentos de menor impacto. Outro ponto relevante são as discussões em torno de anonimização e pseudonimização, cuja eficácia é frequentemente questionada em estudos que demonstram a facilidade de reidentificação de dados pretensamente anônimos. Se a ANPD não estabelecer critérios objetivos e atualizados de técnicas de anonimização, corre-se o risco de que sejam adotados métodos superficiais para, em tese, "mascarar" dados pessoais, sem oferecer garantias reais de proteção. Nesse aspecto, a resolução 23 também chama atenção para a elaboração de diretrizes que orientem a consolidação de uma Política Nacional de Proteção de Dados Pessoais e da Privacidade, visando harmonizar a atuação dos vários atores do ecossistema de dados. Nesse ponto, o papel do Conselho Nacional de Proteção de Dados Pessoais e da Privacidade é estratégico, pois poderá contribuir com subsídios técnicos e políticos capazes de fortalecer a implementação dessa política em todo o território nacional. A definição de regras de boas práticas e de governança aparece como oportunidade de fomentar uma cultura de conformidade, ao mesmo tempo em que estimula um comprometimento setorial e voluntário. É importante, contudo, garantir que essas iniciativas realmente estabeleçam parâmetros eficazes, incluindo mecanismos de supervisão e atualização constante, pois a mera publicação de códigos de conduta não impede desvios ou práticas inadequadas quando não há uma fiscalização independente e sancionatória. O esforço para compreender os agregadores de dados pessoais, que muitas vezes raspam conteúdo na internet e o reúnem em grandes bases, é oportuno, pois a popularização de ferramentas de scraping gera tensões entre a livre circulação de dados e o respeito à privacidade. A ANPD terá o desafio de diferenciar usos lícitos e legítimos do acesso a informações publicadas abertamente de práticas abusivas que exploram brechas para fins de marketing invasivo, criação de perfis discriminatórios ou práticas de vigilância em massa. No que tange aos dados pessoais sensíveis na área de saúde, a ANPD acerta ao incluir na agenda um debate sobre compartilhamento de informações com fins econômicos. O setor de saúde privado movimenta altas somas e sofre pressões para melhorar a gestão de riscos, além de enfrentar problemas estruturais no SUS. Tal complexidade demanda uma regulação fina, que proteja o paciente sem inviabilizar ações de pesquisa, intercâmbio de informações para diagnóstico ou o desenvolvimento de outras soluções digitais. Por fim, a regulação sobre hipóteses legais de consentimento e proteção ao crédito reflete um esforço no sentido de esclarecer limites e orientar procedimentos que confiram maior transparência aos cidadãos. O consentimento é frequentemente criticado por ser obtido de forma genérica ou viciada, especialmente na internet, onde termos de uso extensos induzem o indivíduo a concordar sem real consciência. Já a proteção ao crédito confronta o interesse legítimo de empresas que avaliam riscos financeiros e a privacidade dos titulares, que podem ter seus dados massivamente explorados em sistemas de scoring. À medida que se inicia o ano de 2025, portanto, a ANPD sinaliza um compromisso com a continuidade de temas pendentes e a absorção de novos desafios da era digital. A Agenda Regulatória para 2025-2026 aponta para uma necessária consolidação de fundamentos da LGPD, ao mesmo tempo em que abre espaço para inovações. Diante do ritmo acelerado da transformação digital, a capacidade de a ANPD atualizar constantemente suas diretrizes5 e compreender a complexidade do tratamento de dados em diferentes setores será determinante para que o Brasil avance rumo a uma proteção de dados robusta, transparente e inclusiva. 1 BRASIL. Autoridade Nacional de Proteção de Dados. Resolução 23, de 9/12/24. Aprova a Agenda Regulatória para o biênio 2025-2026. Diário Oficial da União, Brasília, DF, 10 dez. 2024. Disponível aqui. Acesso em: 9 jan. 2025. 2 Válido citar, a esse respeito, o recente ACT - Acordo de Cooperação Técnica firmado entre a ANS - Agência Nacional de Saúde Suplementar e a ANPD - Autoridade Nacional de Proteção de Dados para unir esforços em ações de proteção de dados e segurança da informação no setor de saúde suplementar, abrangendo desde a troca de conhecimentos técnicos até a criação de materiais educativos e monitoramento do cumprimento da LGPD - Lei Geral de Proteção de Dados. A parceria, considerada um marco por envolver pela primeira vez uma agência reguladora e a ANPD, reforça a importância do tratamento responsável de dados de saúde e busca promover maior segurança jurídica, transparência e conscientização no segmento, assegurando melhores resultados para beneficiários de planos de saúde e todos os atores envolvidos. Cf. BRASIL. Agência Nacional de Saúde Suplementar. ANS e ANPD firmam acordo para aprimorar proteção de dados na área de saúde suplementar. 27 dez. 2024. Disponível aqui. Acesso em: 09 jan. 2025. 3 Sobre o tema, v. MARQUES, Claudia Lima; MARTINS, Fernando Rodrigues; MARTINS, Guilherme Magalhães. Economia da atenção, gamificação e esfera lúdica humana: nova crise na proteção dos consumidores e os abusos das apostas e jogos on-line. Revista de Direito do Consumidor, São Paulo, v. 156, ano 33, p. 183-197, nov./dez, 2024. 4 BRASIL. Senado Federal. PL 2.338, de 2023. Dispõe sobre a inteligência artificial e dá outras providências. 2023. Disponível aqui. Acesso em: 09 jan. 2025. 5 LOCHAGIN, Gabriel; MORAES, Emanuele Pezati Franco de; PEROLI, Kelvin. A Autoridade Nacional de Proteção de Dados como garantia institucional ao equilíbrio entre os agentes econômicos e os titulares de dados pessoais. In: LIMA, Cíntia Rosa Pereira de (org.). ANPD e LGPD: desafios e perspectivas. São Paulo: Almedina, 2021. p. 103.
Na terça-feira (7/1), Mark Zuckerberg, CEO da Meta Inc., em declaração controversa, anunciou o fim das estruturas de fact-checking nas plataformas da Meta e a substituição por um modelo mais simples de notas da comunidade, como ocorre no X (Twitter). Na ocasião, Zuckerberg alegou que a medida visa diminuir a censura e promover a liberdade de expressão - uma alternativa em razão da parcialidade dos fact-checkers. A declaração reacendeu os debates acerca da regulação das plataformas digitais e moderação de conteúdo, em especial, considerando que o fact-checking é uma das estratégias de combate à desinformação. Despertou, ainda, discussões diplomáticas, pois o CEO da Meta se alinhou ao governo estadunidense, alegando que os Estados Unidos possuem maior proteção constitucional da liberdade de expressão do que outros países. Parece-nos, então, que há uma tendência de retração da autorregularão e controle das plataformas digitais sobre os conteúdos da sua rede. Ante tal instabilidade dos controles adotados pelas plataformas, cabe, então, avançar nos marcos normativos pátrios acerca da regulação dos provedores de aplicação a fim de garantir segurança jurídica e efetiva proteção da liberdade de expressão aos usuários. Dos limites do fact-checking Como mencionado por Mark Zuckerberg, as plataformas da Meta Inc. seguirão a linha do X (Twitter) e substituirão o fact-checking por notas dos usuários. Entendemos, porém, que não será o fim da checagem de fatos, mas, na verdade, o deslocamento dessa responsabilidade das agências jornalísticas especializada para os próprios usuários. Isso contribui, inclusive, para a diminuição dos custos operacionais da Meta com os agentes profissionais de moderação de conteúdo. Zuckerberg argumenta que a medida é necessária em razão da parcialidade dos checadores, parece negligenciar, entretanto, a parcialidade dos próprios usuários. Nesse sentido, há estudos que questionam a eficácia da checagem de fatos no combate à desinformação já que os indivíduos tendem a não questionar a credibilidade de determinada informação a menos que esta viole preconcepções pessoais.1 Ainda, estudos demonstram que as pessoas preferem informações que confirmem suas atitudes preexistentes; o que seria "exposição seletiva" (selective exposure); além de classificar informações alinhadas com crenças pessoais preexistentes mais válidas do que fatos dissonantes, trata-se do "viés de confirmação" (confirmation bias) e; por fim, estão inclinadas a aceitar informações que lhe agradam, "viés de desejabilidade" (desirability bias).2 Mesmo com a correta checagem das informações, as crenças ideológicas dos indivíduos podem impedir a aceitação da classificação de determinada notícia como "falsa". De fato, a subjetividade e os vieses são barreiras à eficácia da checagem dos fatos. Por isso, mais do que tentar convencer indivíduos da "verdade", a checagem deve nortear as plataformas digitais na restrição de circulação de conteúdo inverídico, contendo sua disseminação em massa. No mais, um dos triunfos das agências especializadas em fact-checking é a transparência, pois apresentam os procedimentos adotados para chegar à informação final, contribuindo para a formação crítica do leitor.3 A produção final do jornalismo de checagem oferece maior transparência em relação às fontes empregadas na construção da notícia, uma vez que o jornalista expõe quais os recursos que utilizou para verificar se determinado conteúdo veicula dados incorretos ou não. Conferir transparência e maior grau de objetividade possível à checagem de informações visa justamente afastar a posição de arautos da verdade, assumindo o fato de que os usuários, as agências de fact-checking e as próprias plataformas digitais estão sujeitas à parcialidade e vieses políticos. A checagem associada à transparência e controles algorítmicos para reduzir a circulação do conteúdo inverídico ainda que não seja uma "bala de prata" pode sim contribuir para o combate às fake news.  Da necessidade de retomar as discussões do PL 2630/20  Ante ao limite da eficácia da checagem de fatos, entendemos que esta, ainda que importante, não pode ser colocada como aspecto central das políticas públicas de contenção da desinformação. Ainda, a tratativa desse fenômeno, crucial para a democracia, não pode estar exclusivamente sob controle das redes sociais. Nesse sentido, cabe retomar as frentes de trabalho para avanço das discussões do Projeto de Lei nº 2.630/2020, assim como, a análise do Supremo Tribunal Federal acerca da constitucionalidade do art. 19º do Marco Civil da Internet - importante dispositivo para a liberdade de expressão e responsabilização dos provedores de aplicação. O PL nº 2.630/2020 pretende instituir a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, apresentando normas, diretrizes e mecanismos de transparência a serem seguidos por provedores de redes sociais e serviços de mensageria privada. A última versão do Projeto4 prevê importantes deveres de responsabilidade e transparência por parte das plataformas digitais, incluindo, diretrizes sobre o procedimento de moderação de conteúdos e obrigação de apresentar relatórios de transparência - pilares fundamentais no combate às fake news, sendo alternativas que diminuem os riscos de censura. Em que pese as declarações do CEO no sentido de suavizar as políticas e controles de conteúdo, é de se observar que as normas brasileiras, em especial, no âmbito eleitoral, exigem que os provedores de aplicação de internet instituam mecanismos de monitoramento e exclusão de conteúdos inverídicos (cf. art. 9º-D e 9º-E, da Resolução do Tribunal Superior Eleitoral nº 23.732/2024)5. Assim, a moderação de conteúdo, até o momento, continua sendo exigência das normas brasileiras e, por isso, os mecanismos de transparência propostos no PL nº 2.630/2020 são essenciais para preservar a liberdade de expressão. Nesse sentido, o art. 12, do PL 2630/2020 prevê bases fundamentais do devido processo, que devem ser mantidas, quais sejam, a notificação, o direito à contestação e reparação de dano por remoção ou restrição indevida. Defendemos que este procedimento poderá auxiliar a mitigar eventuais prejuízos à liberdade de expressão em decorrência da celeridade da remoção de conteúdos inverídicos no período eleitoral. Cabe destacar, por fim, que o debate sobre a responsabilidade das plataformas por conteúdos de terceiros também está em pauta no STF - em especial, RE 1037396, RE 1057258, ADPF 403 e ADI 55276. Tais processos visam analisar a constitucionalidade do art. 19º do Marco Civil da Internet, que dispõe que o provedor de aplicações de internet somente será responsabilizado civilmente por danos decorrentes de conteúdo gerados por terceiros se, após ordem judicial específica, não tomar providências para tornar indisponível o conteúdo.7 Ora, o art. 19º, do MCI é essencial para proteger a liberdade de expressão e prevenir a censura. A discussão sobre a constitucionalidade deste dispositivo poderá dar novos contornos sobre as obrigações das plataformas digitais acerca da moderação de conteúdo, inclusive, no durante o período eleitoral. Considerações finais A desinformação é um fenômeno complexo cujo enfrentamento exige atuação conjunta dos agentes políticos, das instituições democráticas e dos provedores de plataformas digitais. A disseminação articulada de fake news nas redes sociais maculam a legitimidade do processo eleitoral democrático, por isso, seu enfrentamento não deve estar sujeito às decisões unilaterais das big techs, embora também legítima a preocupação quanto à proteção da liberdade de expressão. É essencial, portanto, retomar as discussões acerca da regulação das plataformas digitais no Brasil, em essencial do PL nº 2.630/2018. O avanço do debate entre plataformas digitais, agentes públicos e sociedade civil é essencial para articular caminhos democráticos de combate efetivo combate à desinformação. Aprofundar e avançar nesta estrutura regulatória é necessário para garantir a segurança jurídica e a manutenção da lisura do processo eleitoral. __________ 1 LAZER et.al. The Science of fake news: addressing fake news requires a multidisciplinary effort. Science, v. 359, n. 6380, pp. 1097-1096, 09 mar. 2018, p. 1095. Disponível aqui. Acesso em: 09 jan. 2025 2 Ibidem, p. 1095. 3 SANTOS, Carlos Roberto Praxedes dos; Maurer, Camila. Potencialidades e Limites do Fact-Checking no Combate à Desinformação. Comunicação & Informação. Goiânia, GO, v.23, p.1-14, mar. 2020, p.09. Disponível aqui. Acesso em: 09 jan. 2025. 4 BRASIL. Câmara dos Deputados. PL 2630/2020. Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência. Disponível aqui. Acesso em: 09 jan.2024. 5 BRASIL. Tribunal Superior Eleitoral. Resolução 23.732, de 27 de fevereiro de 2024. Estabelece as normas para a organização e realização das eleições. Brasília, DF: Tribunal Superior Eleitoral, 2024. Disponível aqui. Acesso em: 05 jan. 2025. 6 STF. Entenda: STF julga ações contra normas do Marco Civil da Internet. Supremo Tribunal Federal, 27 nov. 2024. Disponível aqui. Acesso em: 09 jan. 2024. 7 BRASIL. Lei 12.965 de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Brasília, DF: Presidência da República, 2018. Disponível aqui. Acesso em: 09 jan. 2024.
A lei 8.935/94 disciplina a responsabilidade civil e criminal dos notários e registradores nos artigos 22, 23 e 24, que não é o tema deste artigo. Contudo, é importante trazer esse panorama para realçar que a Lei dos Cartórios impõe uma série de deveres que devem ser observados no art. 30, com destaque para o inc. VI (guardar sigilo sobre a documentação e assuntos de natureza reservada; além das infrações disciplinares e penalidades previstas no capítulo XI (arts. 31 a 36). O descumprimento dos deveres previstos no art. 30, bem como a inobservância das prescrições legais ou normativas (inc. I do art. 31) e a violação do sigilo profissional (inc. IV do art. 31), caracterizam infrações disciplinares, sujeitando os notários e os oficiais de registros às penalidades previstas no art. 32, a saber: repreensão, multa, suspensão por noventa dias, prorrogável por mais trinta; e a perda da delegação. Neste sentido, pode-se afirmar com certa tranquilidade que se os delegados dos serviços extrajudiciais descumprirem o que dispõe a Lei Geral de Proteção de Dados (lei 13.709/2018), e, consequentemente as previsões normativas que encamparam a proteção de dados seja no Código Nacional de Normas do Conselho Nacional de Justiça (arts. 79 a 135), seja nas Normas de Serviços Extrajudiciais da Corregedoria Geral de Justiça do Tribunal de Justiça de São Paulo (itens 127 a 151 do capítulo XIII), podem sofrer as sanções administrativas previstas na Lei dos Cartórios. Todavia, LGPD criou a Autoridade Nacional de Proteção de Dados, hoje uma autarquia de natureza especial, dotada de autonomia técnica e decisória, com sede no Distrito Federal (art. 55-A) que é crucial para o enforcement do sistema de proteção de dados.1 A competência da ANPD é extensa prevista no art. 55-J da LGPD, pode ser organizada em 5 categorias: 1) atribuições preventivas, de cunho exemplificativo e genérico de atuação da ANPD, como por exemplo, a de "zelar pela proteção dos dados pessoais" (inc. I); 2) atribuições fiscalizatórias, também de natureza ex ante e exemplificativa, porém com instrumentos fiscalizatórios concretizados por meio de auditorias (inc. XVI); 3) atribuições sancionatórios, que é taxativa e de natureza ex post à violação à LGPD, que é a ênfase deste artigo e que será tratada a seguir; 4) atribuições regulatórias, ou seja, a imperiosa missão de editar regulamentos e procedimentos sobre proteção de dados pessoais e privacidade (inc. XIII), observada a exigência de mínima intervenção e a consulta e audiência públicas, além da análise do impacto regulatório nos termos dos §§ 1º e 2º do art. 55-J; e, por fim, 5) atribuições de gestão, isto é, a arrecadação e aplicação das receitas como previsto no inc. XV do art. 55-J da LGPD.2  O Poder Disciplinar do Poder Judiciário em Face de Notários e registradores quanto ao Cumprimento da LGPD Conforme previsão da lei 8.935/1994, cometem infração disciplinar os notários e registradores que deixarem de cumprir determinação normativa atinente à atividade: Art. 31. São infrações disciplinares que sujeitam os notários e os oficiais de registro às penalidades previstas nesta lei: I - a inobservância das prescrições legais ou normativas; [...]". Assim sendo, a inobservância das prescrições legais ou normativas atinente à LGPD, pode levar ao exercício do Poder Disciplinar do Estado, por meio do Poder Judiciário delegante do serviço notarial e de registro, com a imposição das penas previstas no já transcrito artigo 32 da Lei dos Notários e Registradores, quais sejam repreensão, multa, suspensão, ou perda da delegação, conforme a gravidade do fato. Tratam-se de sanções administrativas a serem impostas, após o devido processo administrativo sancionador, pela Agência Nacional de Proteção de Dados (ANPD), em claro exercício do Poder Administrativo Sancionador do Estado, na espécie Poder de Polícia, dirigido à toda coletividade, derivado da supremacia geral do interesse público, independente de vinculação especial com o Poder Público. Enquanto o poder disciplinar se aplica especificamente aos indivíduos que possuem um vínculo formal com a administração, decorrente de uma relação de supremacia especial3, o poder de polícia se estende a todos os cidadãos, tendo fundamento na supremacia geral do Estado. O poder de polícia, manifestação da supremacia do interesse público sobre o privado, permite a imposição de limitações e condições ao exercício de direitos individuais em prol do interesse coletivo. Este poder se dirige a toda coletividade, independentemente de qualquer vínculo específico com a administração. Isso decorre de uma relação de supremacia geral. A supremacia geral confere ao Estado a autoridade para regulamentar e restringir atividades, a fim de proteger a ordem pública, a segurança, a saúde e o bem-estar da sociedade. Suas características incluem a universalidade, aplicando-se a todos os cidadãos e entidades, sem distinção. A principal diferença entre os dois poderes, disciplinar e de polícia, reside no âmbito de sua aplicação e na natureza da relação entre o Estado e os indivíduos afetados. Enquanto o poder disciplinar é restrito ao ambiente interno da Administração Pública, o poder de polícia tem um alcance mais amplo, afetando toda a sociedade. Dessa forma, pode-se afirmar que os notários e registradores estão sujeitos às sanções previstas no artigo 52 da Lei Geral de Proteção de Dados (LGPD)4. Essa sujeição não decorre do exercício do poder disciplinar do Estado, mas sim como consequência do poder de polícia punitivo exercido administrativamente pela Administração Pública. Tal poder se estende a toda a coletividade, alcançando qualquer pessoa ou entidade que infrinja as disposições da LGPD e seus regulamentos. Da análise das sanções administrativas previstas na LGPD e sua aplicabilidade aos notários e registradores A LGPD estabelece as sanções taxativamente previstas no art. 52, quais  sejam: - advertência, com indicação de prazo para adoção de medidas corretivas; - multa simples, de até 2% (dois por cento) do faturamento da pessoa jurídica de direito privado, grupo ou conglomerado no Brasil no seu último exercício, excluídos os tributos, limitada, no total, a R$ 50.000.000,00 (cinquenta milhões de reais) por infração; - multa diária, observado estabelecido para a multa simples; - publicização da infração após devidamente apurada e confirmada a sua ocorrência; - bloqueio dos dados pessoais a que se refere a infração até a sua regularização; - eliminação dos dados pessoais a que se refere a infração; - suspensão parcial do funcionamento do banco de dados a que se refere a infração pelo período máximo de 6 (seis) meses, prorrogável por igual período, até a regularização da atividade de tratamento pelo controlador; - suspensão do exercício da atividade de tratamento dos dados pessoais a que se refere a infração pelo período máximo de 6 (seis) meses, prorrogável por igual período; - proibição parcial ou total do exercício de atividades relacionadas a tratamento de dados. Entretanto, tendo em vista a natureza dos serviços públicos prestados pelos cartórios extrajudiciais, e as funções dos serviços de notas e registros, nem todas as sanções administrativas previstas na LGPD podem ser aplicadas aos ofícios de notas e de registros. Temos que as únicas sanções previstas na LGPD passíveis de aplicação às serventias extrajudiciais pela ANPD são: advertência e publiciação. Da análise das sanções administrativas previstas pela Lei n. 8.935/1994 e pela LGPD quanto à eficiência aplicada aos notários e registradores Outro aspecto importante sobre o tema é a eficiência das sanções previstas no art. 52 da LGPD aplicadas aos notários e registradores, na medida em que somente são plausíveis pelas razões acima aduzidas aplicar a advertência ou publicização. Assim, nos parece que as sanções previstas na Lei n. 8.935/1994 são mais adequadas, pois têm em foco o delegado dos serviços extrajudiciais, enquanto a LGPD realça o banco de dados e a atividade dos agentes de tratamento de dados, com ênfase claramente à dinâmica do capitalismo informacional que utiliza os dados pessoais como valiosos ativos. Neste sentido, o ideal seria um acordo técnico de cooperação entre a ANPD e o CNJ quanto à fiscalização e aplicação de sanções aos notários e registradores, para que a finalidade responsiva do processo administrativo sancionador exercido pela ANPD seja alcançada. É possível, ainda, que tais instrumentos de cooperação sejam celebrados entre a ANPD e as Corregedorias Gerais de Justiça dos Tribunais de Justiça das unidades da federação para este fim. A fim de se alcançar a máxima eficiência no sistema sancionatório decorrente de violação à LGPD, nos termos do inc. XXIII do art. 55-J da LGPD, a ANPD pode articular-se com autoridades reguladoras públicas para exercer suas competências em setores específicos de atividades econômicas e governamentais sujeitas à regulação, como é o caso das atividades extrajudiciais de notas e de registro.  Conclusão A Autoridade Nacional de Proteção de Dados é um órgão fundamental que busca a eficácia da LGPD exercendo competências de natureza preventiva, fiscalizatória, regulatória, sancionatória e de gestão. O temido poder administrativo sancionatório da ANPD é previsto expressamente no inciso IV do art. 55J da LGPD, sendo competência absoluta este órgão nos termos do art. 55-K da LGPD. No entanto, ao analisar as sanções administrativas previstas no art. 52 da LGPD, combinado com o disposto no § 3º deste dispositivo legal, as únicas sanções que podem ser aplicadas às serventias extrajudiciais são: advertência e publicização (inc. I e IV do art. 52 da LGPD, respectivamente). Isto porque as sanções de multa simples e de multa diária está associada à pessoa jurídica de direito privado, o que não se aplica aos cartórios extrajudiciais; além de serem equiparados às entidades públicas para fins de aplicação da LGPD (§§ 4º e 5º do art. 23). Ora a violação da LGPD pode dar ensejo ao processo administrativo sancionatório decorrente do Poder de Polícia da ANPD e o processo administrativo disciplinar exercido pelas Corregedorias Gerais de Justiça. Ainda que não se possa alegar bis in idem, ficou evidente que os órgãos devem ser nortear pelo princípio da proporcionalidade para que não ocorra uma intervenção excessiva do Estado. Em suma, o ideal seria um acordo de cooperação entre a ANPD e o CNJ; e entre aquela e as Corregedorias Gerais de Justiça dos Tribunais de Justiça dos Estados a fim de se alcançar a máxima eficiência da função pedagógica das sanções administrativas previstas na LGPD, bem como na lei 8.935/1994. Estes e outros temas relacionados à atuação das serventias extrajudiciais e a proteção de dados pessoais estão tratados na obra "Estudos Avançados em Direito Notarial e Registral", coordenada pelos professores Vitor Frederico Kümpel, Cíntia Rosa Pereira de Lima e Renata Mota Maciel, pela Editora YK.5 __________ 1 LIMA, Cíntia Rosa Pereira de. Autoridade Nacional de Proteção de Dados e a Efetividade da Lei Geral de Proteção de Dados. São Paulo: Almedina, 2019. 2 LIMA, Cíntia Rosa Pereira de. Autoridade Nacional de Proteção de Dados (ANPD). Art. 55 a art. 55-M. In: MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti; FALEIROS JÚNIOR, José Luiz de Moura. Comentários à Lei Geral de Proteção de Dados Pessoais. 2. Ed. Indaiatuba, SP: Editora Foco, 2024. pp.539 - 579. 3 Como a do notário e registrador com o Poder Judiciário delegante do serviço público. 4 Com as devidas ressalvas, conforme sustentado em tópico próprio do presente estudo. 5 LIMA, Cíntia Rosa Pereira de; CAIRES, Erica Trinca; CAIRES, Robson Passos. O Poder Sancionatório da Autoridade Nacional de Proteção de Dados versus Poder Disciplinar dos Notários e Registradores: hipóteses de convergência para a maior eficiência das sanções previstas na LGPD e lei 8.935/1994. In: KÜMPEL, Vitor Frederico; LIMA, Cíntia Rosa Pereira de; MACIEL, Renata Mota. Estudos Avançados em Direito Notarial e Registral. São Paulo: YK Editora, 2024. pp.79 - 94.
sexta-feira, 13 de dezembro de 2024

A nossa IA é tamanho único, sirva-se! (Parte 2)

No meu último texto para este periódico1 comentamos sobre como outros países estão tentando evitar uma próxima onda de dependência econômica, tecnológica e cultural criando os seus próprios modelos de linguagem para alimentarem as IAs generativas, ou seja, estas IAs a estilo do ChatGPT. Neste mesmo artigo comentamos que em agosto deste ano, a OIT, Organização Internacional do Trabalho, e o Escritório do Enviado do Secretário-Geral da ONU para a Tecnologia publicaram um alerta conjunto afirmando que, sem uma ação internacional, a revolução da IA pode aumentar a diferença entre países de alta e baixa renda2. Neste artigo também destacamos como a Suécia, o Japão, a China, a índia e o Brasil já estão usando seus próprios modelos de linguagem para dirimir os eventuais gaps tecnológicos e culturais, como também para minimizar a dependência econômica das IAs generativas. São vários os aspectos envolvidos que fomentam uma nação para dominar e comandar as suas próprias IAs, tais como: garantir a soberania e segurança nacional; manter e estimular a nossa preponderância cultural e linguística; acomodar nossas próprias questões de privacidade e ética; estimular o crescimento econômico e o avanço tecnológico, e; conquistar uma certa autonomia estratégica e um grau elevado de competitividade global. Particularmente o nosso país luta bravamente com o Sabiá-2, um modelo de linguagem "Made in Brazil" criado pela Maritaca AI, uma startup de Campinas, SP.; o Amazonia IA, um modelo que é capaz de oferecer um contexto mais detalhado sobre temas relacionados à "cultura brasileira"3; e o Juru, um modelo especializado do Sabiá-2 para a área jurídica com 1,9 bilhão de tokens únicos de fontes jurídicas brasileiras conceituadas4. No entanto, os caminhos para o domínio das IAs generativas é árduo e nem tudo são flores nesta empreitada tecnológica de nos apoderarmos de IAs generativas "Made in Brazil". Os números da economia global são uma proxy, não só da importância de se dominar os recursos para IA no mundo, mas da escala de negócios abarcada por estas empresas e que impõem uma dominância quase que impeditiva para a concorrência. A exemplo, atualmente a Nvídia, empresa que majoritariamente produz placas gráficas de computadores (essas usadas em games) e os seus processadores gráficos (GPU), é a segunda maior empresa em valor de mercado no mundo, com um valor de US$ 3,39 trilhões, atrás apenas da Apple (US$3.59 trilhões) e "pouco" a frente da Microsoft (US$3.15 tri.). O crescimento assustador da Nvídia nos últimos anos é advindo de duas causas principais: a) suas GPUs são muito procuradas porque desempenham um papel fundamental no treinamento e operações de aplicativos de IA, e; b) essas GPUs também têm sido usados para minerar criptomoedas (usando o poder de processamento do computador para validar transações criptográficas e ganhar recompensas). Par a par, a terceira startup mais valiosa no globo é a Open AI, dona do ChatGPT, com valor de mercado de US$157 bilhões, "pouco" atrás da Space X (US$200 bi) do bilionário Elon Musk, e ainda longe da chinesa ByteDance (US$225), a gigante da tecnologia chinesa que opera no ramo do entretenimento e mídia5. A ByteDande, ou Beijing ByteDance Technology Co. Ltd., é na verdade mais famosa por ser a dona do TikTok. Digno de nota: a ByteDance foi fundada em 2012, enquanto a OpenAI foi fundada a apenas 8 anos, em 2015. Se, por um lado, o valor de mercado destas empresas anima os produtores de soluções em IA, assim como os anima em termos de amplitude de vendas e o curto intervalo de tempo para alcançar o clímax do status comercial, existem vários fatores que preocupam na hora de montar um negócio sob o tema de modelo de linguagem. Vamos passar brevemente por eles e escolher alguns para tecer alguns comentários adicionais. Considerações na elaboração de um modelo de linguagem A criação e a manutenção de um modelo de linguagem para uma língua única podem enfrentar diversas dificuldades. Aqui estão alguns dos principais fatores a serem considerados: Diversidade dialetal: Sabemos que a principal "matéria prima" na elaboração de um modelo de linguagem para uma IA generativa é a manifestação escrita da língua, ou seja, textos. Neste ponto, raros são os países de dimensões continentais como o nosso, que falam uma única língua. Isso é uma enorme vantagem para a criação de um modelo de linguagem pois tem o potencial de simplificar o problema. Muitas línguas possuem várias variantes ou dialetos. Capturar essa diversidade em um único modelo pode ser desafiador, pois diferentes regiões podem usar vocabulários e gramáticas distintas. Corpus de dados: A disponibilidade e a qualidade dos dados de treinamento, dos textos, são cruciais. Para línguas menos faladas no mundo, pode haver uma escassez relativa de textos e material de qualidade, dificultando a criação de um modelo robusto. O português é apenas a nona língua mais falada no mundo com pouco mais de 234 milhões de falantes.  É duas vezes menor que o Espanhol (quarta) e quase cinco vezes menor que o Inglês (segunda) e o Mandarim (primeira mais falada)6. Mudanças linguísticas: As línguas estão em constante evolução. Novas palavras, gírias e expressões surgem regularmente, e um modelo precisa ser atualizado constantemente para refletir essas mudanças. Ambiguidade e contexto: Muitas línguas possuem ambivalências e dependem fortemente do contexto. A interpretação correta de frases pode ser dificultada pela falta de clareza em algumas construções linguísticas. Esse é um problema não apenas dada a extensão territorial do Brasil que abarca populações com modos de falar distintos. Devemos considerar também que o português é falado na Europa, na África e na Ásia. Recursos computacionais: Modelos de linguagem avançados exigem grande poder computacional. Isso pode ser um obstáculo, especialmente se o foco for em línguas que não atraem grandes investimentos privados por terem pouca expectativa de gerarem lucros advindos de novos produtos destas IAs. Problemas éticos e culturais: A criação de modelos de linguagem deve considerar representatividade e viés. É importante incluir diferentes grupos de falantes da língua e evitar perpetuar estereótipos culturais. Integração com aplicações: A implementação prática de um modelo de linguagem em aplicativos do dia a dia requer adaptações para que funcione de forma eficaz nas diferentes áreas de uso. Acessibilidade e usabilidade: É fundamental que os modelos sejam acessíveis a falantes nativos e não nativos, considerando níveis variados de proficiência, especialmente em contextos educacionais. No frigir dos ovos Todas estas situações acima certamente são ponderadas pelas empresas que decidem atuar neste ramo de negócio. No entanto, não devemos nos esquecer que estas empresas sobrevivem da venda de seus produtos de IA, a exemplo do ChatGPT que é um serviço, um chatbot, que funciona amparado num modelo de linguagem. Obviamente estes serviços precisam gerar receitas para enfrentarem o alto custo de desenvolvimento e manutenção destas IAs. Em abril de 2023, o periódico online Futurism revelou que a OpenAI gasta US$700 mil por dia para manter a infraestrutura de suas IAs generativas7. Com o valor atual do dólar norte-americano na casa do R$6,00, isso corresponde hoje a mais de R$4,2 milhões por dia. Só quem tem mais de 100 milhões de usuários ativos pode arcar com um custo tão elevado. Esse negócio de vender soluções de IA mostra-se tão lucrativo que existe uma concorrência forte no mercado cobiçado por outras grandes empresas, tais como a Meta, a X, o Facebook e a Microsoft. Dada esta concorrência, parte da estratégia é se manter atualizado. Quanto a isso, a OpenAI anunciou recentemente que deverá construir um novo cluster de computadores para processar suas IAs. Esse novo cluster deverá usar 100 mil GPUs do modelo mais recente da Nvidia, a placa GB200, uma inovação sobre o chip H1008. Como o H100 já tem o preço na ordem de US$25 mil cada, a nova placa GB200 está orçada em US$70 mil cada uma9. Ou seja, estamos comentando aqui que um único cluster de computadores deverá custar US$7 bilhões. Esse é o "tamanho" do investimento para tentar se manter atualizado. Outra grande dificuldade que as empresas podem encontrar é quanto a "matéria prima" em português para uma IA de língua única que são os textos. Mas não existem muitos textos escritos em português na web? Sim, existem, mas estes correspondem a apenas 3,1% do conteúdo da web, comparado com os 52% dos textos em inglês10. Ou seja, existe uma preponderância muito ampla de textos em inglês em relação a qualquer outra língua. Como estas IAs dependem de uma grande quantidade de textos para poderem aprender e desempenharem bem, a língua inglesa oferece estes recursos com maior amplitude que as demais. Assim, elas se valem de traduções para poder atender as demais línguas. Outra situação: para garantir que estas IAs generativas deem respostas confiáveis, elas precisam ser alimentadas com fontes confiáveis. E é aí que mora um dos grandes temores destas empresas. Onde achar textos confiáveis que não estejam protegidos por copyright ou alguma outra forma de limitação de uso da propriedade intelectual? Sabemos que jornais, livros e revistas são geralmente fontes de informação confiáveis, mas seus textos são geralmente protegidos. No mínimo é dever das empresas resguardar o copyright. Quanto a isso, os processos judiciais sobre vários tipos de infração de legislação de propriedade intelectual sobre textos se avolumam nos escritórios da OpenAI11, apenas para citar uma das empresas com este tipo de problema. O blog TrialLine apresenta uma linha do tempo em que mostra processos de toda sorte sobre praticamente todas as empresas de IA generativa. Tem uma primeira etapa formada por processos versando sobre quebra de copyright por grandes jornais como o New York Times, uma segunda onda formada por escritores individuais e artistas visuais por supostas infrações relativas ao uso de suas obras (desenhos, pinturas, gravuras usadas pela DeepMid e Runway ML), músicas geradas artificialmente também foram alvo de grandes empresas no ramo de entretenimento como a Universal Music Group (UMG), Sony e Bloomberg, enfim, tem problemas para todos nestes "players". Quase todos os grandes nomes da indústria que tangem ou usam a web estão relacionados a um processo ou outro: Amazon, Associated Press, Elon Musk, Financial Times, TIME, Google, YouTube...Tem para todo mundo. O que desejamos mostrar nestes dois artigos foram a importância de termos domínio sobre a mais recente ferramenta que a humanidade tem a seu dispor, nas mais variadas formas de aplicações, que é a Inteligência Artificial, e sobre as grandes barreiras a serem transpostas para um país ou empresa nacional que deseje dominar estas ferramentas para garantir a independência econômica, tecnológica e cultural criando os seus próprios modelos de linguagem que alimentam as IAs generativas. Percebemos que este tema é uma "briga de cachorro grande", mas que dada a singularidade e especificidade de nossa língua existem espaços que podemos e devemos atuar. É uma "briga" que está apenas começando, mas o Brasil já está marcando sua presença e com o suporte de cada um de nós, teremos condições de afirmar nossos maiores valores. _________ 1 A nossa IA é tamanho único, sirva-se! - Parte 1. Miglhas, coluna Migalhas de IA e Proteção de Dados. Disponível aqui. Último acesso em 9 de dezembro de 2024. 2 Mind the Gap: Bridging the AI divide will ensure an equitable future for all. Disponível aqui. Último acesso em 3 de novembro de 2024. 3 Conhecendo as IAs brasileiras, Sabiá-2 e Amazônia IA. Disponível aqui. Último acesso em 2 de setembro de 2024. 4 Juru: Legal Brazilian Large Language Model from Reputable Sources. ArXvi. Disponível aqui. Último acesso em 2 de setembro de 2024. 5 The Largest Companies by Market Cap in 2024. Disponível aqui. Último acesso em 9 de dezembro de 2024. 6 Quais são as línguas mais faladas no mundo? Disponível aqui. Último acesso em 12 de dezembro de 2024. 7 Just Running ChatGPT Is Costing OpenAI a Staggering Sum Every Single Day. Disponível aqui. Último acesso em 12 de dezembro de 2023. 8 One of OpenAI's next supercomputing clusters will have 100k Nvidia GB200s (per The Information). Disponível aqui. Último acesso em 12 de dezembro de 2023. 9 NVIDIA Blackwell GB200 Superchip to Cost up to 70,000 US Dollars. Disponível aqui. Último acesso em 12 de dezembro de 2023. 10 Languages most frequently used for web content as of January 2024, by share of websites. Disponível aqui. Último acesso em 12 de dezembro de 2023. 11 The copyright lawsuits against OpenAI are piling up as the tech company seeks data to train its AI. Disponível aqui. Último acesso em 12 de dezembro de 2023. 12 Generative AI Lawsuits Timeline. Disponível aqui. Último acesso em 12 de dezembro de 2023.
A sociedade digital contemporânea evoluiu do simples online para o denominado "onlife", no qual experiências reais e virtuais se relacionam, modificando profundamente a forma como interagimos e vivemos. Tal transformação impõe desafios ao Direito, exigindo uma percepção aguçada e o desenvolvimento de regulamentações específicas para acompanhar os avanços tecnológicos1. Nesse cenário, os neurodireitos têm ganhado destaque, sendo objeto de debates e regulamentações em diversas partes do mundo. Um exemplo notável ocorreu com a Constituição do Chile2, que foi emendada para proteger a integridade e a segurança psíquica diante do avanço das neurotecnologias. De maneira semelhante, a Espanha deu um importante passo com a Carta de Direitos Digitais, aprovada em julho de 2021. No item XXVI do Capítulo 53, a norma aborda os direitos digitais no uso de neurotecnologias, determinando que as condições, limites e garantias para a implementação e utilização dessas tecnologias sejam regulamentados por lei, com observância de finalidades específicas. Nos Estados Unidos, o Estado do Colorado4 aprovou uma legislação pioneira ao incluir os dados neurais entre os direitos de privacidade. A lei ampliou a definição de dados sensíveis na legislação estadual sobre privacidade pessoal, abrangendo informações relacionadas à atividade cerebral e derivadas do sistema nervoso, em resposta ao crescente interesse das empresas de tecnologia nesse campo. No Brasil, o debate sobre os neurodireitos está em ascensão, especialmente com a Proposta de Emenda à Constituição n. 29, de 2023, que visa inserir o inciso LXXX ao artigo 5º da Constituição Federal, conferindo aos neurodireitos o status de direito fundamental5. Destaca-se, nesse contexto, a iniciativa acadêmica do Professor Eduardo Tomasevicius Filho, que, no primeiro semestre de 2024, ofereceu a disciplina "Direito Civil na Recepção Dogmática dos Neurodireitos" no programa de Pós-Graduação da Faculdade de Direito da Universidade de São Paulo (USP). O curso proporcionou uma pesquisa coletiva e colaborativa, analisando os neurodireitos sob a ótica da legislação e da doutrina, promovendo uma reflexão aprofundada sobre o tema. O futuro dos neurodireitos tende a ser um campo de crescente relevância e complexidade, a depender do desenvolvimento das tecnologias, das técnicas empregadas e das informações neurais extraídas. Nesse cenário, analisar os dados neurais e a possível existência de uma nova categoria de bens, denominada bens neurais, revela-se essencial. Em relação aos dados pessoais, o art. 5º, inciso I, da Lei Geral de Proteção de Dados (lei 13.709/18) os define como informações relacionadas a uma pessoa natural identificada ou identificável. Em consonância com essa definição, Antonia Espíndola Longoni Klee e Guilherme Magalhães Martins6 afirmam que dados pessoais são informações que permitem identificar o indivíduo a quem dizem respeito. Com o avanço das tecnologias, surge a necessidade de analisar a coleta de dados íntimos e mentais, que podem ser utilizados para as mais diversas finalidades, desde a melhoria da qualidade de vida até o induzimento a comportamentos específicos. Partindo da premissa da Lei Geral de Proteção de Dados e do anteprojeto do Novo Código Civil, que propõe inserir o inciso VIII ao artigo 2º, considera-se a possibilidade de inclusão dos dados neurais como uma categoria normativa, inicialmente vinculada aos direitos da personalidade. Os dados neurais podem ser obtidos por meio de diversas técnicas e dispositivos, como eletroencefalogramas (EEG), ressonância magnética funcional, interfaces cérebro-computador (BCI), entre outros. Essas informações incluem: atividades elétricas em diferentes regiões do cérebro, imagens cerebrais detalhadas, padrões de ativação neuronal que podem estar associados a pensamentos, emoções, movimentos ou outros processos mentais e fisiológicos, e até mesmo dados de interação entre diferentes regiões do cérebro. Esses dados, portanto, referem-se às informações íntimas e mentais coletadas sobre a atividade e os processos do sistema nervoso, especialmente do cérebro, relacionadas a uma pessoa natural identificada ou identificável. Contudo, com o avanço das tecnologias, certas informações cerebrais podem eventualmente adquirir conteúdo econômico, classificando-se como bens neurais. Embora relacionados aos dados neurais, os bens neurais diferem por possuírem um caráter patrimonial/econômico associado. Assim, enquanto os dados neurais envolvem informações íntimas e mentais sobre a atividade e os processos do sistema nervoso, os bens neurais possuem as mesmas características, acrescidas de um conteúdo patrimonial. Pode-se concluir, assim, que os dados neurais são uma categoria na qual os bens neurais são uma espécie qualificada pelo conteúdo patrimonial/econômico. Todo bem neural é um dado neural, mas nem todo dado neural será um bem neural. A diferença fundamental entre eles é a presença do elemento patrimonial. Como exemplo de dados neurais, podem ser citadas informações sobre doenças neurológicas e suas consequências, bem como aspectos físicos relacionados à pessoa da qual esses dados são extraídos. Tais informações configuram-se como meros dados, uma vez que, em um primeiro momento, não apresentam um interesse patrimonial propriamente dito. Com o desenvolvimento acelerado das neurotecnologias, é possível que, ao longo dos anos, algumas informações extraídas de dados neurais passem a adquirir um caráter patrimonial. Considere, por exemplo, a possibilidade de que, por meio da leitura de dados cerebrais, seja possível identificar como o cérebro de uma pessoa reagiu a uma doença psíquica e alcançou a cura com o uso de um medicamento específico. Essa informação teria um grande valor econômico, pois inúmeras pessoas que enfrentam a mesma condição quanto indústrias farmacêuticas interessadas no desenvolvimento de novos tratamentos poderiam desejá-la. A importância da distinção entre dados neurais e bens neurais é de fundamental importância, pois envolve a aplicação de regimes jurídicos distintos. Dados neurais, por não possuírem caráter patrimonial, estão sujeitos à sistemática dos direitos da personalidade, protegendo aspectos essenciais da dignidade e da identidade humana e podendo ser defendidos por aqueles legitimados em lei. Em contrapartida, bens neurais, por possuírem caráter patrimonial, estariam submetidos ao regime jurídico da propriedade, sendo inclusive passíveis de transmissão por herança. Em relação à herança, merece destaque a abordagem adotada pela Espanha na Carta de Direitos Digitais, aprovada em julho de 20217. No item VII do Capítulo 1, que trata dos direitos de liberdade, incluindo o direito à herança digital, a Carta estabelece que cabe ao legislador definir quais bens e direitos de natureza patrimonial são transmissíveis por herança e quais estão vinculados aos direitos da personalidade, podendo ser objeto de defesa, preservação e memória. Essa medida pode servir como referência para outros países e legislações, possibilitando, futuramente, uma distinção legal entre dados neurais e bens neurais e maior segurança jurídica quanto ao tema. Portanto, o avanço legislativo diante dos desafios impostos pelas neurotecnologias e pela integração dos bens neurais ao patrimônio digital é indispensável. A categorização dos dados neurais como bens neurais, quando possuírem conteúdo patrimonial/econômico, representa um passo crucial para assegurar segurança jurídica e proteção adequada desses ativos no ordenamento jurídico. Essa evolução é fundamental para promover um futuro mais seguro e equilibrado no campo dos direitos digitais e dos neurodireitos. _______ 1 FLORIDI, Luciano. The Onlife Manifesto: Being Human in a Hyperconnected Era. Oxford: Springer, 2015. Disponível em: . Acesso em: 02/06/2024. 2 CHILE. Biblioteca del Congreso Nacional de Chile (2021). Decreto 100 fija el texto refundido, coordinado y sistematizado de la Constitución Política de la República de Chile. Disponível em: . Acesso em: 20/05/2024. 3 1. Las condiciones, límites y garantías de implantación y empleo en las personas de las neurotecnologías podrán ser reguladas por la ley con la finalidad de: a) Garantizar el control de cada persona sobre su propia identidad. b) Garantizar la autodeterminación individual, soberanía y libertad en la toma de decisiones. c) Asegurar la confidencialidad y seguridad de los datos obtenidos o relativos a sus processos cerebrales y el pleno dominio y disposición sobre los mismos. d) Regular el uso de interfaces persona-máquina susceptibles de afectar a la integridad física o psíquica. e) Asegurar que las decisiones y procesos basados en neurotecnologías no sean condicionadas por el suministro de datos, programas o informaciones incompletos, no deseados, desconocidos o sesgados. 2. Para garantizar la dignidad de la persona, la igualdad y la no discriminación, y de acuerdo en su caso con los tratados y convenios internacionales, la ley podrá regular aquellos supuestos y condiciones de empleo de las neurotecnologías que, más allá de su aplicación terapéutica, pretendan el aumento cognitivo o la estimulación o potenciación de las capacidades de las personas. 4 THE NEW YORK TIMES. Your brain waves are up for sale. A new law wants to chande that. Disponível em: . Acesso em 05/06/2024. 5 BRASIL. Senada Federal. Proposta de Emenda à Constituição nº 29, de 2023. Disponível em: . Acesso em 05/06/2024. 6 KLEE, Antonia Espíndola Longoni; MARTINS, Guilherme Magalhães. A privacidade, a proteção dos dados e dos registros pessoais e a Liberdade de expressão: algumas reflexões sobre o Marco Civil da Internet no Brasil (Lei nº 12.965/2014). In: Direito & Internet III - Tomo I: Marco Civil da Internet (Lei nº 12.965/2014). DE LUCCA, Newton; SIMÃO FILHO, Adalberto; LIMA, Cíntia Rosa Pereira de (coords.). São Paulo: Quartier Latin, 2015. p. 325. 7 ESPANHA. Carta Derechos Digitales. Disponível em: Acesso em: 04/06/2024.
Visando regulamentar com maior precisão o Artigo 6.º, n.º 1, "f", do Regulamento Geral sobre a Proteção de Dados da União Europeia (2016/679(EU), ou RGPD), o Comitê Europeu de Proteção de Dados (European Data Protection Board, EDPB) publicou e passou a adotar, a partir de 8 de outubro de 2024, suas Guidelines 01/20241. O conteúdo do documento diz respeito ao tratamento de dados pessoais com base em interesses legítimos do controlador ou de terceiros. Anteriormente, o tema era avaliado a partir da Opinion 2014-06, emitida pelo Grupo de Trabalho do Artigo 292, antecessor do Comitê Europeu de Proteção de Dados, que abordou o conceito de "interesses legítimos" do controlador como uma base legal para o processamento de dados pessoais sob a antiga Diretiva 95/46/EC. Essa opinião foi fundamental para definir diretrizes e critérios que, posteriormente, foram refinados e incorporados ao RGPD com o Artigo 6.º, n.º 1, "f", que estabelece o interesse legítimo como uma das possíveis hipóteses de lastro para o tratamento de dados pessoais3. Já era de amplo conhecimento a posição do Grupo de Trabalho do Artigo 29 no sentido de que o interesse legítimo deve ser interpretado de forma restrita e que o controlador precisa cumprir três requisitos para justificar o tratamento de dados pessoais com base nessa base legal: primeiro, a existência de um interesse legítimo que seja específico, atual e não conflituoso com a lei; segundo, a necessidade de processamento para alcançar esse interesse, sem outras alternativas menos invasivas; e terceiro, o equilíbrio entre o interesse do controlador e os direitos e liberdades dos titulares de dados. Esses requisitos foram denominados "teste de três etapas" e visavam garantir uma análise cuidadosa e fundamentada antes de se optar pelo interesse legítimo como base legal4. A opinião de 2014 também destacou a importância de controlador documentar o processo de avaliação do interesse legítimo, a fim de cumprir com o princípio da "responsabilização" (accountability) e estar preparado para demonstrar a legalidade do tratamento de dados, se necessário, em fiscalizações, auditorias e até mesmo para o atendimento de ordens judiciais. Além disso, recomendou-se que os controladores fornecessem informações claras e transparentes aos titulares dos dados sobre a base legal de interesse legítimo, promovendo a transparência e fortalecendo a confiança no uso dos dados. Outro ponto importante abordado foi o contexto e o impacto do tratamento de dados para os titulares. A Opinion 2014-06 reconheceu que o impacto pode variar de acordo com a tipologia dos dados tratados, a natureza da relação entre controlador e titular, e as expectativas razoáveis dos titulares em relação ao tratamento. Situações envolvendo certas categorias de dados pessoais (como os genéticos, biométricos e os relativos à saúde do titular) ou em que os titulares sejam vulneráveis (como crianças) exigem uma análise ainda mais rigorosa e, potencialmente, salvaguardas adicionais para garantir a proteção dos direitos fundamentais dos titulares. Tratou-se, portanto, de um relevante marco inicial para estabelecer entendimento uniforme sobre o interesse legítimo, promovendo o uso dessa base legal de forma equilibrada e responsável. A partir de agora, entretanto, as Guidelines 01/2024 do EDPB atualizam e expandem os conceitos apresentados na Opinion 06/2014 e incorporam desenvolvimentos normativos e jurisprudenciais ocorridos desde 2014, incluindo decisões recentes do Tribunal de Justiça da União Europeia (TJUE) que influenciam a interpretação do RGPD. Por exemplo, a decisão no caso C-252/21, de 4 de julho de 2023, forneceu esclarecimentos adicionais sobre a aplicação do Artigo 6.º, n.º 1, "f" e foi considerada nas novas orientações. Além disso, as Guidelines 1/2024 oferecem uma análise mais detalhada dos critérios que os controladores devem atender para processar dados pessoais com base em interesses legítimos, enfatizando a necessidade de: (i) identificar claramente o interesse legítimo perseguido; (ii) avaliar a necessidade do tratamento para alcançar esse interesse; (iii) realizar um balanceamento entre o interesse do controlador e os direitos dos titulares dos dados. A propósito, o Capítulo III das Guidelines 01/2024 é inteiramente dedicado à avaliação da relação entre o legítimo interesse e o repertório de direitos do titular de dados na União Europeia. Esses direitos, que vão desde a transparência até a restrição de tratamento, não apenas reafirmam o controle dos indivíduos sobre seus dados, mas impõem ao controlador a obrigação de respeitar e viabilizar seu exercício, mesmo quando o legítimo interesse é invocado como base legal. Neste sentido, a transparência, como um princípio central, garante que os titulares compreendam claramente como seus dados são utilizados, possibilitando uma participação ativa e informada no processo de gestão dos dados que lhes dizem respeito. A falta de transparência compromete a confiança dos titulares e enfraquece o direito fundamental à proteção de dados, ao passo que a disponibilização de informações detalhadas e acessíveis permite que os titulares exerçam com propriedade os direitos que lhes são atribuídos. Destacam-se alguns direitos, como o direito de acesso, que permite ao titular requisitar ao controlador informações específicas sobre os dados armazenados e a lógica do processamento, conferindo ao titular não apenas um instrumento de informação, mas também uma ferramenta de verificação do cumprimento da legislação. Na relação desse direito com o legítimo interesse, o controlador deve ir além de uma justificativa genérica e expor claramente o equilíbrio entre seus interesses e os direitos do titular, tornando este direito um pilar da transparência e da accountability no tratamento de dados. Já o direito de oposição reflete a capacidade do titular de interferir diretamente no tratamento de seus dados, especialmente quando este se baseia no interesse legítimo. Neste caso, cabe ao controlador interromper o tratamento ou, alternativamente, apresentar provas de que razões legítimas superiores justificam a sua continuidade, o que reforça a proteção dos interesses dos titulares. O direito de apagamento possibilita ao titular solicitar a exclusão de seus dados pessoais em situações nas quais o legítimo interesse deixa de ser aplicável, como ocorre com a retirada do consentimento. Esta prerrogativa representa um limite ao controle do controlador sobre os dados, impondo a ele a obrigação de garantir o respeito ao desejo do titular, salvo em situações excepcionais, como a necessidade de preservação dos dados para defesa em litígios. Em relação às decisões automatizadas e ao perfilamento, o RGPD reconhece que o uso de algoritmos e processamento automatizado pode impactar significativamente os direitos dos titulares. Por fim, os direitos de retificação e de restrição de tratamento oferecem ao titular o poder de corrigir dados imprecisos e de limitar o processamento em casos de controvérsia. No Capítulo IV das Guidelines 01/2024 é possível notar uma preocupação com contextos nos quais o legítimo interesse é usualmente invocado, o que contribui eficazmente para a clarificação das nuances relativas a essa base legal em situações práticas. No tratamento de dados de crianças, as Guidelines enfatizam uma abordagem diferenciada e protetiva. Considerando a vulnerabilidade e a menor compreensão que as crianças possuem em relação aos riscos associados ao uso de seus dados, exige-se dos controladores um cuidado especial e a adoção de medidas adicionais. A aplicação do legítimo interesse nesses casos requer que o controlador realize uma avaliação detalhada, que evidencie a supremacia dos direitos da criança e que evite repercussões negativas em seu desenvolvimento e segurança. Em se tratando de autoridades públicas, as Guidelines claramente limitam a aplicabilidade do legítimo interesse. Para as autoridades, que geralmente dispõem de bases legais específicas, o interesse legítimo não se aplica de maneira automática, a menos que estejam agindo fora de suas funções públicas regulares. A prevenção de fraudes, por sua vez, emerge como um contexto no qual o interesse legítimo é amplamente reconhecido. Esse tipo de tratamento de dados representa um exemplo claro de benefício mútuo: ao proteger o controlador e os titulares dos dados de atividades ilícitas, como fraudes, garante-se a integridade das operações e a segurança dos dados pessoais. Outro ponto relevante é o marketing direto, no qual o interesse legítimo pode ser invocado, desde que respeitados os limites impostos pela legislação específica, que em certos casos exige o consentimento prévio do titular. No âmbito corporativo, o compartilhamento de dados para fins administrativos internos dentro de grupos empresariais é uma situação em que o legítimo interesse pode ser reconhecido, pois otimiza processos internos e fortalece a integração entre subsidiárias e filiais, exige que os controladores adotem transparência e clareza, especialmente no que se refere às expectativas dos titulares. No campo da segurança de redes e informações, o interesse legítimo é interpretado com amplitude, uma vez que a proteção contra ataques cibernéticos e acessos não autorizados reveste-se de alta importância. A natureza desse tratamento transcende o benefício individual da organização e visa a proteção coletiva, garantindo a confiabilidade e segurança de sistemas que processam dados pessoais. Esse contexto, assim, justifica a relevância do interesse legítimo como meio de garantir a estabilidade e resiliência dos sistemas de informação. Finalmente, a transmissão de dados para autoridades competentes em situações que envolvem crimes ou ameaças à segurança pública é abordada como uma necessidade legítima. Todavia, mesmo nesses casos, o documento enfatiza a necessidade de uma avaliação criteriosa que considere a proporcionalidade e a adequação do tratamento. O compartilhamento de dados pessoais deve ser conduzido com responsabilidade e em conformidade com as leis de proteção de dados aplicáveis, assegurando que o interesse legítimo não se sobreponha aos direitos e liberdades fundamentais sem justificativa adequada. Em conclusão, as Guidelines 01/2024 representam um avanço significativo em relação à Opinion 2014-06, ao atualizarem o entendimento sobre o interesse legítimo no tratamento de dados pessoais no contexto do RGPD. Com uma metodologia de avaliação mais detalhada e uma análise contextual de cada cenário de tratamento, o EDPB busca garantir que o uso do interesse legítimo seja alinhado aos princípios de transparência, necessidade e proporcionalidade. Esse avanço europeu é de suma importância para o Brasil, pois oferece uma referência robusta para o desenvolvimento e a aplicação prática da Lei Geral de Proteção de Dados Pessoais (LGPD). É preciso elogiar o labor da Autoridade Nacional de Proteção de Dados (ANPD) brasileira, que lançou recentemente o seu Guia Orientativo sobre a Base Legal do Legítimo Interesse5, que visa orientar a aplicação responsável dessa base legal, de modo a equilibrar os interesses dos agentes de tratamento com os direitos fundamentais dos titulares, mas o acompanhamento detido das diretrizes europeias pode viabilizar aperfeiçoamento ainda maior de suas práticas e fortalecer a segurança jurídica no tratamento de dados para criar uma cultura de proteção de dados alinhada aos melhores padrões globais. __________ 1 EUROPEAN DATA PROTECTION BOARD. Guidelines 1/2024 on processing of personal data based on Article 6(1)(f) GDPR. Bruxelas: EDPB, 2024. Disponível aqui. Acesso em: 14 nov. 2024. 2 ARTICLE 29 DATA PROTECTION WORKING PARTY. Opinion 06/2014 on the notion of legitimate interests of the data controller under Article 7 of Directive 95/46/EC. Bruxelas: European Commission, 2014. Disponível aqui. Acesso em: 14 nov. 2024. 3 GOMES, Rodrigo Dias de Pinho. Legítimos interesses na LGPD: trajetória, consolidação e critérios de aplicação. Indaiatuba: Foco, 2024, p. 88-91. 4 PIVETO, Lucas Colombera Vaiano. Art. 10. In: MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti; FALEIROS JÚNIOR, José Luiz de Moura (coord.) Comentários à Lei Geral de Proteção de Dados Pessoais (lei 13.709/2018). 2. ed. Indaiatuba: Foco, 2024, p. 117-118. 5 AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS. Guia Orientativo sobre a Base Legal de Legítimo Interesse. Brasília: ANPD, 2024. Disponível aqui. Acesso em: 14 nov. 2024.
sexta-feira, 8 de novembro de 2024

A nossa IA é tamanho único, sirva-se! - Parte 1

Os novos brasileiros que nascerão em 2025 irão nascer num país divido. Segundo o ranking do saneamento deste ano, hoje 32 milhões de brasileiros não têm acesso à água potável e 90 milhões de pessoas não desfrutam de moradias com coleta de esgoto1. Se recursos básicos faltam a uma parte considerável dos 212 milhões de brasileiros, o mesmo acontece com os recursos tecnológicos que hoje são fundamentais para exercer a cidadania por completo. Segundo estudos do Banco Mundial "Em toda a América Latina, a divisão digital não é apenas uma questão tecnológica, mas um reflexo evidente da desigualdade de renda. O Brasil não é exceção. O acesso à internet, uma porta de entrada crucial para a educação, oportunidades de emprego e serviços essenciais, continua a ser distribuído de forma desigual." 2 Em agosto deste ano, a OIT - Organização Internacional do Trabalho, e o Escritório do Enviado do Secretário-Geral da ONU para a tecnologia publicaram um alerta conjunto afirmando que, sem uma ação internacional, a revolução da IA pode aumentar a diferença entre países de alta e baixa renda3. Ou seja, nós cidadãos brasileiros, as empresas aqui instaladas e os serviços públicos nacionais, poderemos todos sermos alcançados também pelo chamado "AI divide", ou seja, veremos uma grande divisão entre os países que usam racionalmente a Inteligência Artificial para promover o seu desenvolvimento e o desenvolvimento de sua sociedade e aqueles países que não usam ou nem ao menos têm acesso a IA. Em abril deste ano, publiquei neste periódico um artigo sobre os riscos de não termos uma IA a estilo do ChatGPT4, ou seja, um grande modelo de linguagem (Large Language Model - LLM), uma IA generativa, que fosse constituída primariamente de textos em português. A prevalência e superioridade das IAs generativas escritas majoritariamente em inglês podem sim afetar a nossa língua, pois estas IAs são tão úteis e capazes quantos os dados que são fornecidos a elas. O que fazer então se estas IAs são alimentadas primariamente com dados estrangeiros escritos na língua inglesa? Como estas IAs podem atender plenamente nossas necessidades como brasileiros? O que sabem sobre a nossa história, nossa cultura, nosso cotidiano, nossa língua? Podemos usar estas IAs como ferramentas nas nossas escolas e nos nossos escritórios? Questões como estas acima não nos levam a um brasilianismo exacerbado, não conduzem a um documento sugerindo uma nova edição da Semana de Arte Moderna de 1922, ou um levante pela antropofagia computacional. Longe disso. A questão é que alguns países já têm respostas a estas perguntas e, devido a estas respostas, estes países criaram seus próprios modelos de linguagem. Estes são alguns deles: Suécia: Três empresas, a AI Sweden, juntamente com a RISE e a WASP WARA Media & Language, desenvolveram um modelo de linguagem generativo em larga escala para as línguas nórdicas, principalmente o sueco. Chama-se GPT-SW3. Como um serviço aberto, qualquer indivíduo, empresa, agência governamental ou organização pode aproveitar o poder do GPT-SW3 para desenvolver produtos e serviços com esta IA generativa; Japão: Com a união do Tokyo Institute of Technology,  da Tohoku University, Fujitsu, RIKEN, Nagoya University, CyberAgent, e Kotoba Technologies, formou-se uma equipe de pesquisadores que lançou o Fugaku-LLM, um grande modelo de linguagem (LLM) com capacidade aprimorada para a língua japonesa e destinado para uso comercial, utilizando o supercomputador Fugaku da RIKEN; China: Certamente a China não poderia se deixar "invadir" por IAs estrangeiras e desde o ano passado já havia lançado mais de 70 LLMs distintos. Hoje a China discute a evolução destes modelos de linguagem5; Índia: A Índia, o país mais populoso do mundo com 1,45 bilhões de pessoas e o país com maior variedade linguística (121 línguas) lançou em outubro deste ano o BharatGen, o primeiro modelo de linguagem indiano feito com apoio governamental. Como afirma o governo indiano o "BharatGen, é uma iniciativa pioneira em IA generativa projetada para revolucionar a prestação de serviços públicos e aumentar o engajamento dos cidadãos por meio do desenvolvimento de um conjunto de modelos fundamentais em linguagem, fala e visão computacional." 6 Brasil: Sim, já temos o sabiá-2, um modelo de linguagem "Made in Brazil" criado pela Maritaca AI, uma startup de Campinas, SP. Este modelo de linguagem foi lançado março deste ano 2024 e foi é tido como o primeiro LLM especializado em português. Temos também o Amazonia IA. O modelo Amazônia IA é capaz de oferecer um contexto mais detalhado sobre temas relacionados à "cultura brasileira". Por exemplo, perguntas como "quais são as festas regionais mais populares do Brasil?" ou "quais são os hábitos alimentares dos brasileiros?" podem ser feitas à IA. Além disso, os usuários podem acessar informações sobre legislação, obras literárias, cultura brasileira, pesquisas científicas locais, entre outros assuntos nacionais7. E o Brasil não para nestes dois modelos, neste artigo recente7, a mesma equipe que lançou o Sabiá, a Maritaca AI de Rodrigo Nogueira, docente voluntário na Unicamp, especializou o modelo Sabiá-2 para a área jurídica criando o Juru, um modelo de linguagem especializado com 1,9 bilhão de tokens únicos de fontes jurídicas brasileiras conceituadas. Neste mesmo artigo, os autores demonstram as capacidades do modelo avaliando-o em exames de conhecimento geral e jurídico8. Considerando as iniciativas acima citadas, além dos já conhecidos modelos, tais como o ChatGPT da Open AI, o  Copilot da Microsoft; o Llama da Meta (Instagram, Facebook e WhatsApp) e os modelos Bard e Gemini da Alphabet (Google), uma das primeiras questões que podem surgir é: Será que o Brasil, como um país independente, deveria ter seu próprio modelo de linguagem desenvolvido com textos na nossa língua portuguesa (almanaques, livros, revistas, jornais e outros periódicos) e com nossos conteúdos artísticos (certamente sem infração de copyright)? Só falar português não basta Percebam que, além do que muitos pensavam antes que bastava ter uma IA generativa que falava nossa língua portuguesa para podermos manter uma identidade nacional, essa ideia, atualmente, já se foi, já era. Vide os modelos Amazonia IA e Juru acima citados. Eles abarcam uma identidade nacional que vai além da língua, mas que versa sobre a cultura nacional como um todo. Nesta IA são incorporados elementos da nossa literatura, gastronomia, tema locais, sistemas jurídicos nacionais, entre outras 'brasilianices'. Portugal também já percebeu a importância desse viés nacionalista, porém não antropofágico. GlórIA é o novo modelo de linguagem de grande escala em português, desenvolvido pelo Grupo de Sistemas Multimodais da NOVA LINCS. GlórIA é um LLM de alto desempenho em PT-PT, ou seja, gerado para "falar" português e elaborado com fontes portuguesas, textos portugueses. O GlórIA é um LLM capaz de gerar textos de alta qualidade sobre uma variedade de tópicos, como história, meio ambiente, culinária, entre muitos outros. Liderada pelo Prof. David Semedo, a equipe da NOVA LINCS lançou o GlórIA, o primeiro modelo generativo treinado em um extenso corpus em português de alta qualidade com mais de 35 bilhões de tokens, abrangendo um conjunto altamente diversificado de fontes de dados [9]. Sabendo tudo isso, ainda fica a questão: "Quais são as vantagens e motivações para se investir num grande modelo de linguagem estritamente nacional?" Motivos para termos um modelo de linguagem nacional Soberania e Segurança Nacional: Países desenvolvem seus próprios LLMs para manter a soberania e a segurança nacional, já que o controle de dados é vital. Lembrem-se, esses modelos de linguagem usam a estratégia de aprendizado por reforço, ou seja, as suas perguntas e os dados que você posta no modelo servem como "alimento" para esta IA generativa. A dependência de LLMs estrangeiros pode colocar em risco a segurança de dados e, eventualmente, deixar brechas para permitir alguma forma de influência externa. LLMs locais ajudam a evitar espionagem e ataques cibernéticos; Relevância Cultural e Linguística: A linguagem é parte fundamental da identidade cultural de um país. LLMs de grandes empresas estrangeiras de tecnologia podem não capturar a diversidade linguística de cada região. Modelos nacionais ajudam a preservar e promover línguas locais, auxiliando na educação e comunicação digital; Privacidade e Ética: Com preocupações crescentes sobre privacidade de dados, LLMs locais garantem conformidade com leis e padrões éticos do país em que são desenvolvidas, podendo ser projetados para mitigar preconceitos presentes em conjuntos de dados estrangeiros; Crescimento Econômico e Avanço Tecnológico: Desenvolver LLMs próprios pode impulsionar o crescimento econômico e o progresso tecnológico, fomentando inovação e criando empregos. Eles podem otimizar operações em várias áreas de aplicação, como educação, segurança, saúde e finanças; e, não menos; Autonomia Estratégica e Competitividade Global: Ter autonomia em capacidades de IA é crucial para competitividade global. LLMs domésticos têm o potencial de permitir que países conduzam suas agendas de IA e participem do cenário global em condições de igualdade. Como quase tudo nesta vida, a construção de um grande modelo nacional de linguagem não é uma tarefa que só permite a visão das vantagens envolvidas. Existem também as desvantagens e, entre elas, o alto custo de desenvolvimento e manutenção destas IAs. No entanto, deixaremos esta discussão sobre as desvantagens na construção de um modelo nacional de IA generativa para o próximo artigo para o qual também abordaremos as diferenças entre um eventual desenvolvimento governamental e as iniciativas particulares. ________ 1 Um cenário que não muda: no Brasil, 90 milhões de pessoas não têm acesso à coleta de esgoto. Revista Exame. Disponível aqui. Último acesso em 3 de novembro de 2024. 2 Bridging Brazil's digital divide: How internet inequality mirrors income gaps. World Bank Blogs. Disponível aqui. Último acesso em 3 de novembro de 2024. 3 Mind the Gap: Bridging the AI divide will ensure an equitable future for all. Disponível aqui. Último acesso em 3 de novembro de 2024. 4 A nossa Língua Portuguesa está em risco de extinção? Migalhas. Disponível aqui. Último acesso em 3 de novembro de 2024. 5 The Evolution of Chinese Large Language Models (LLMs). Disponível aqui. Último acesso em 3 de setembro de 2024. 6 Launch of BharatGen: The first Government supported Multimodal Large Language Model Initiative. Disponível aqui. Último acesso em 3 de setembro de 2024. 7 Conhecendo as IAs brasileiras, Sabiá-2 e Amazônia IA. Disponível aqui. Último acesso em 2 de setembro de 2024. 8 Juru: Legal Brazilian Large Language Model from Reputable Sources. ArXvi. Disponível aqui. Último acesso em 2 de setembro de 2024. 9 GlórIA: the new Portuguese-European Large Language Model. Disponível aqui. Último acesso em 2 de setembro de 2024.
Os registros públicos visam dar autenticidade, segurança e eficácia aos atos jurídicos conforme preceitua o art. 1º da lei de registros públicos (lei 6.015, de 31 de dezembro de 1973). Esta lei rege os cartórios de registro civil de pessoas naturais, registro civil de pessoas jurídicas, registro de títulos e documentos e o registro de imóveis (art. 2º). Os fatos ocorridos na vida do indivíduo, portanto, ao serem inscritos nos livros de registros ganham segurança e autenticidade, vez que foram submetidos ao crivo do registrador ou de seu preposto, em ato chamado de qualificação registral, para só então adentrar ao sistema de registros públicos; consequentemente, geram a chamada eficácia por meio da publicidade declarativa e a possibilidade de, ao serem conhecidos por terceiros, serem também oponíveis erga omnes, vindo a garantir prova de direitos.1 No entanto, destaca-se a atuação dos registros civis das pessoas naturais, que se demonstra fundamental para o exercício da cidadania e do livre desenvolvimento da pessoa humana. Assim, estes cartórios têm contato com a pessoa desde o seu nascimento e participam de atos importantes da vida cotidiana de todo cidadão. O que impõe uma ponderação preliminar se a mesma publicidade inerente à segurança jurídica dos direitos reais desempenhada pelo registro de imóveis, deve ser a que norteia a atuação dos registros civis das pessoas naturais. Parece-nos que o CNJ2 ao incorporar as regras relacionadas à proteção de dados no código nacional de normas (provimento 149, de 30 de agosto de 2023), em especial o capítulo II da parte geral, no Título VI, está atento a tais diferenças estabelecendo regras distintas sobre proteção de dados pessoais levando em consideração cada uma das serventias extrajudiciais (arts. 79 a 135). Algumas regras merecem uma reflexão, sobre as quais se dedica este texto da coluna Migalhas de IA e Proteção de Dados, em especial, o § 2º do art. 114 (sobre a emissão de certidão com dado sensível de pessoa falecida), art. 118 (dispensa requerimento, inclusive de terceiros para emissão de certidão), art. 119 (não se aplicam as restrições dos dados sensíveis e emissão de certidões às pessoas falecidas) e parágrafo único do art. 120 (possibilita a emissão de certidão a qualquer pessoa que apresentar a certidão de óbito). Certidão de registro civil de inteiro teor com dados sensíveis antes e depois da morte Pelo código nacional de normas, apenas o próprio registrado pode solicitar sua expedição, independentemente de autorização do juiz corregedor permanente; todavia em sendo solicitada por terceiros, e havendo dados pessoais sensíveis3, a certidão somente pode ser emitida mediante autorização do juízo competente (§ 1º do art. 114 do CNN/CNJ). Todavia, após o falecimento do titular do dado sensível, as certidões de inteiro teor podem ser fornecidas aos parentes em linha reta independentemente de autorização judicial (§ 2º do art. 114 do CNN/CNJ). Ora, qual seria a razão deste tratamento díspar aos dados pessoais sensíveis de pessoas vivas e pessoas falecidas. Por exemplo, uma pessoa que tenha feito retificação do assento para alterar gênero e prenome - tal informação é um dado sensível, pois se relaciona à vida sexual, cuja publicização não é permitida a fim de assegurar o direito à intimidade destas pessoas. Entretanto, após a morte da pessoa, esta informação passaria a poder ser publicizada pelo parente em linha reta, ao obter a certidão em inteiro teor, independentemente de qualquer motivação a ser analisada? Parece-nos que esta regra revela a confusão que ocorre entre proteção de dados e sigilo, tendo em vista que a LGPD não visa a resguardar segredo das pessoas, a única menção sobre sigilo na LGPD está no capítulo VII (sobre segurança e boas práticas em matéria de proteção de dados). Em outras palavras, o sigilo aqui estabelecido resguarda o acesso indevido às informações que devem ser mantidas em segurança pelos agentes de tratamento de dados. Até porque no art. 18 da LGPD, que traz os direitos assegurados aos titulares de dados, não há menção ao direito ao sigilo.4 Certidão de óbito pode ser emitida para qualquer pessoa O art. 118 do CNN/CNJ traz uma regra que amplia a publicidade da certidão de óbito, permitindo que seja emitida independentemente de requerimento ou autorização judicial, retirando do registrador civil ou do Poder Judiciário, qualquer análise a respeito do ato, quando eventualmente necessário. Assim, por meio de uma certidão de óbito em breve relato, atualmente passível de emissão a qualquer pessoa que o solicite, é possível que se venha a saber: O nome completo do falecido; seu número de inscrição cadastral junto ao Ministério da Fazenda (CPF); o sexo; a cor; o estado civil e a idade; a naturalidade; o número de seu documento de identificação; se era ou não eleitor; a filiação e residência; a data e a hora do falecimento; o local do falecimento; a causa da morte; o município e o cemitério onde foi sepultado, ou o local onde foi cremado (se conhecido); o nome completo do declarante; eventuais declarações a respeito do falecido, normalmente as que se referem o art. 80, itens 6º, 7º, 10º e 12º da lei de registros públicos (se deixou bens, testamento, filhos etc.). A LGPD restringe a divulgação destas informações? Parece-nos que não, na medida em que a publicidade registral tem por base a lei seja para dados pessoais genericamente considerados (inc. II do art. 7º), seja para dados pessoais sensíveis (alínea "a" do inc. II do art. 11). Portanto, se houver necessidade de restringir algumas destas informações será em virtude da proteção à intimidade ou à privacidade e não, necessariamente à proteção de dados. As restrições relativas aos dados sensíveis devem ou não se aplicar às pessoas falecidas? No art. 119 do CNN/CNJ traz outra regra preocupante quanto à distinção do tratamento de dados às pessoas falecidas, pois as restrições relacionadas aos dados pessoais sensíveis não se aplicam às pessoas falecidas. Na coluna Migalhas de IA e de Proteção de Dados da semana passada, enfrentou o tema relacionado à proteção post mortem dos dados pessoais.5 Nesta oportunidade, constatou que a ANPD ignorou a necessária interpretação da LGPD conforme a CF/88 e o CC/02: "Os dados pessoais, sensíveis ou não, como mencionado anteriormente, previstos na LGPD, são uma espécie do gênero direitos da personalidade. Esses dados estão intrinsecamente ligados à dignidade humana e à proteção da identidade e privacidade de cada indivíduo, conectando-os diretamente aos direitos fundamentais de personalidade assegurados pela CF/88 e pelo CC. Assim como o nome, a imagem e a honra, os dados pessoais integram esse conjunto de direitos inalienáveis, cuja função é garantir o livre desenvolvimento da pessoa, tanto no ambiente físico quanto no digital. Nesse sentido, o que a ANPD realizou foi deslocar o conceito jurídico de tutela post mortem de seu contexto macrossocial para um contexto isolado, o que se mostra equivocado." Esta restrição parece-nos fruto de uma influência equivocada do direito europeu sobre proteção de dados pessoais, pois não foi refletida com base na doutrina civil e constitucional já consolidada no país sobre os direitos de personalidade post mortem. O tema foi enfrentado pelo WP29, no parecer 4/07,6  sobre o conceito de dado pessoal, no qual foram estabelecidos quatro requisitos que devem ser preenchidos para que seja considerado um dado pessoal, quais sejam: 1º) "qualquer informação"; 2º) "relacionada a"; 3º) "pessoa natural"; e 4°) "identificada ou identificável".7 Certidão sobre procedimentos preparatórios ou de documentos para a realização de atos no registro civil das pessoas naturais O caput do art. 120 do CNN/CNJ estabelece que a emissão e o fornecimento de certidão sobre procedimentos preparatórios ou documentos apresentados para a realização de atos no Registro Civil das Pessoas Naturais, somente podem ser realizados quando requeridos pelo próprio titular de dados constante dos documentos, que podem ser representados por mandatários com poderes especiais ou representantes legais. Tal restrição não se aplica se o requerente da certidão obtiver uma autorização judicial ou quando o documento for público com publicidade geral e irrestrita. Aqui há um equívoco muito comum: confunde-se a proteção de dados quanto à esfera pública e quanto à esfera privada, uma vez que a própria LGPD se aplica tanto a dados públicos quanto a dados privados, justamente porque o que ela resguarda não é sigilo imposto por lei especial, como sigilo fiscal, bancário, adoção, pessoas transgênero, mas sim, o controle do fluxo de suas informações pelos titulares de dados. Entretanto, o parágrafo único do art. 120 do CNN/CNJ permite que tal certidão seja fornecida para qualquer pessoa que apresentar a certidão de óbito, independentemente de qualquer justificação razoável. Em mais esta ocasião há um tratamento distinto entre a proteção da pessoa viva e da pessoa falecida, que não nos parece ter respaldo no ordenamento jurídico brasileiro. Conclusão A tutela post mortem dos direitos de personalidade tem desafiado o Judiciário, pois a linha divisória entre os direitos de personalidade da pessoa falecida e dos seus sucessores elencados no parágrafo único do art. 12 do CC/02 é muito tênue. No entanto, deve-se agir levando em consideração o que normalmente se esperaria conforme os interesses legítimos da pessoa falecida. Neste sentido, Rosa Maria de Andrade Nery e Nelson Nery Júnior8  afirmam os direitos de personalidade da pessoa falecida como "projeção da existência anterior", em especial quanto a direitos e deveres que se projetam para seus sucessores, como é o caso da proteção do nome, da boa fama, da memória e dos frutos da potência intelectiva e criativa de seu antigo titular.  O problema é que esta não está viva para poder dizer o que e como quer que seus direitos de personalidade sejam administrados, portanto, algumas ferramentas de tutela de assets digitais (herança digital) podem resolver estes problemas. Em suma, grande parte dos questionamentos aqui suscitados relaciona-se à confusão entre privacidade e proteção de dados. Stefano Rodotà9 destaca uma diferença importante: O direito da privacidade possui tutela estática e negativa, enquanto a tutela dos dados pessoais, estruturada a partir de regras sobre o tratamento de dados, poderes de intervenção, dentre outras, possui uma tutela dinâmica, ou seja, surge com a coleta dos dados e permanece com eles durante a circulação e armazenamento. Neste sentido, parece-nos que como a emissão de certidão é uma atividade típica do oficial registrador civil das pessoas naturais, regulada pela lei de registros públicos, bem como por normas de serviços das corregedorias gerais de justiça dos Tribunais de Justiça estaduais e os provimentos do CNJ, sendo este o fundamento da base para o tratamento de dados por parte dos cartórios, e como já evidenciado nesta coluna Migalhas de IA e Proteção de Dados, a emissão de certidão sendo atividade típica dos oficiais registradores não deve ser considerada um compartilhamento de dados.10 Portanto, qualquer restrição deve ter embasamento em lei ou em direitos de personalidade como ocorre na tutela da privacidade e intimidade que se estendem às pessoas falecidas igualmente às pessoas vivas nos termos do parágrafo único do art. 12 do CC. De maneira que não nos parece razoável tratar distintamente sobre emissão de certidões de pessoas vivas e falecidas, seja porque algumas restrições são impostas por leis específicas independentemente da LGPD; seja porque a restrição da proteção de dados às pessoas vivas é de constitucionalidade questionável em virtude da necessária interpretação conforme à Constituição Federal e o diálogo necessário entre LGPD e o CC. Estes e outros temas relacionados à atuação das serventias extrajudiciais e a proteção de dados pessoais estão tratados na obra "Impactos da LGPD e da lei 14.711/23 nos Serviços Notariais e Registrais", coordenada pelo professor Fernando Campos Scaff, professor Vitor Frederico Kümpel e pela professora Cíntia Rosa Pereira de Lima, em pré-lançamento pela editora YK. ________ 1 KÜMPEL, Vitor Frederico; FERRARI, Carla Modina. Tratado de Direito Notarial e Registral. Volume 2: Registro Civil das Pessoas Naturais, São Paulo: YK Editora, 2017. 2 BRASIL. CNJ. CORREGEDORIA NACIONAL DE JUSTIÇA. Código Nacional de Normas do Foro Extrajudicial. Disponível aqui. Acesso: 30 out. 2024. 3 A LGPD considera dado pessoa sensível a informação relacionada à origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida sexual, dado genético ou biométrico, quando vinculado a uma pessoa natural (inc. II do art. 5º); 4 LIMA, Cintia Rosa Pereira de; LIMA,  Marilia Ostini Ayello Alves de. Proteção de dados pessoais e publicidade registral: uma longa caminhada de um tema inesgotável. In: Migalhas de IA e Proteção de Dados. Disponível aqui. Acesso em 22 de agosto de 2024. 5 LIMA, Tiago Augustini de; CARRINHOS, Camila Ananda; LIMA, Cintia Rosa Pereira de Lima. Tutela de dados pessoais post mortem: Uma análise crítica da nota técnica 3/23 da ANPD. Migalhas de IA e Proteção de Dados. 28 de outubro de 2024. Disponível aqui.  Acesso: 30 out. 2024. 6 EUROPA. DATA PROTECTION BOARD (antigo WORKING PARTY 29). Disponível aqui. Acesso: 30 out. 2024. 7 Sobre este debate cf. LIMA, Cíntia Rosa Pereira de. Autoridade Nacional de Proteção de Dados ..., op. cit.,p. 141. 8 Instituições de direito civil. Vol. 1, t. II - Parte Geral. São Paulo: Revista dos Tribunais, 2015. p. 37. 9 Tra diritti fondamentali ed elasticità della normativa: il nuovo codice sulla privacy. In: Europa e Diritto Privato, fasc. 01, pp. 01 - 11, Milão: Giuffrè, 2004. p. 03. No mesmo sentido: FINOCCHIARO, Giusella. Privacy e protezione dei dati personali: disciplina e strumenti operativi. Bologna: Zanichelli, 2012. p. 04 - 05. 10 LIMA, Cíntia Rosa Pereira de; CAMPANELLI, Luciana Amicuccci. Certidão imobiliária na era da lei Geral de Proteção de Dados. Migalhas de IA e Proteção de Dados, São Paulo, 23 ago. 2024. Disponível aqui. Acesso em: 30 out. 2024.
A PRF - Polícia Rodoviária Federal solicitou à ANPD - Autoridade Nacional de Proteção de Dados uma manifestação técnica sobre a possibilidade de criar um memorial no portal web da PRF, conforme o ofício 692/22, com o objetivo de homenagear servidores falecidos. O memorial disponibilizaria, ao público que acessa o portal, a foto dos servidores e o tempo de serviço dedicado à instituição, como forma de prestar homenagem e preservar a memória institucional da PRF, considerando as diretrizes da lei 13.709/18 (LGPD). A consulta da PRF tratava, portanto, da existência ou não, pois há omissão legal ao tema, de tutela post mortem sobre os dados pessoais destes servidores. Em resposta, a ANPD emitiu a nota técnica 3/23/CGF  - cujo argumento central é de que não há incidência da LGPD em casos envolvendo dados pessoais de pessoas falecidas, prescrito no item 6.1 e 6.2 da Nota. No entanto, vale a pena analisar mais a fundo o conteúdo da nota técnica e considerar se existem outros entendimentos possíveis. Na nota, especificamente nos subitens 5.1 e 5.4, a ANPD prescreve:  5.1. Considerando que o tratamento de dados em questão envolve dados pessoais de pessoas falecidas e que não há, na LGPD, tampouco nos normativos infralegais expedidos por esta Autoridade Nacional de Proteção de Dados (ANPD), menção expressa à incidência ou não da LGPD no tratamento de tais dados, foram solicitados subsídios para a Coordenação-Geral de Normatização (SUPER nº 3725625 e 3797726), que serviram como balizador para a análise a seguir. [...] 5.4. Nesse caso, pressupõe-se que a sua incidência se dá no âmbito do tratamento de dados pessoais de pessoas naturais, ou seja, vivas, já que, de acordo com o art. 6º do Código Civil, a existência da pessoa natural termina com a morte. A proteção post mortem dos direitos da personalidade dos titulares de dados pessoais não estaria, então, abarcada pela LGPD, pois não mais há desenvolvimento de personalidade. (grifo nosso) A ANPD reconhece, no subitem 5.1, portanto, a lacuna legislativa diante do tema proposto. Ora, lacunas legais existem desde o Direito Romano (Streck, 2014; Doneda, 2020) e persistiram às mais diversas codificações, código napoleônico, Constituição de Weimar, e etc. e por que não na LGPD? O ponto, portanto, não se trata apenas da identificação da lacuna, mas qual técnica hermenêutica o aplicador utilizou para preenchê-la e resolver o caso, não por menos, o ordenamento jurídico brasileiro prescreve o princípio non liquet (art. 4º da LINDB e 140 do CPC/15).  As lacunas, para Hans Kelsen, são ficções criadas por uma interpretação equivocada do sistema jurídico. Dessa maneira, a lacuna surge como uma imprevisibilidade do legislador e aparece ao intérprete como injusta (Kelsen, 1998, p. 172), ou inoportuna, pois, caso fosse justa, caberia ao Legislativo prever o caso. Entretanto, a realidade impõe desafios à toda sociedade - os avanços tecnológicos são tais casos e por isso merecem atenção especial - assim - as lacunas legais podem ser vistas como avanços do Direito tendo em vista à realidade - porque a hermenêutica exegética permaneceu no código napoleônico, não é mesmo? Diante disso, observa-se um imbróglio: a ANPD, como intérprete, identificou a lacuna, mas não a preencheu de forma adequada ao desconsiderar a analogia exigida pelo ordenamento jurídico brasileiro nesses casos. Embora tenha mencionado o CC, a ANPD não o utilizou de forma apropriada para tratar dos dados pessoais - sensíveis ou não - como uma extensão dos direitos assegurados por normas superiores, como a própria CF, que no art. 5º, inc. X tutela os direitos da personalidade e, no inc. LXXIX, protege os dados pessoais. Além disso, o CC, nos arts. 16 a 18, especialmente em relação ao nome, também oferece diretrizes importantes, Essa interpretação não implica a existência de direitos da personalidade de indivíduos falecidos, mas sim o reconhecimento de que, em determinados casos, aspectos desses direitos, como o uso da imagem, podem ser tutelados por legitimados, como os familiares, para resguardar a memória e a dignidade do falecido, como bem ensina Adriano de Cupis (2008, p. 127).  A técnica hermenêutica, contudo, deveria ter sido melhor aplicada. Segundo Hans-Georg Gadamer (2004, p. 115), em sua filosofia hermenêutica, é o texto que deve orientar o intérprete e oferecer sentido, e não o intérprete que, de maneira solipsista ou discricionária, impõe um sentido à norma. Para Gadamer, o processo de interpretação deve ser um diálogo entre o texto e o intérprete, onde este último se coloca em uma posição de abertura ao significado que o texto oferece, ao invés de projetar sua própria visão subjetiva sobre ele. Danilo Doneda, em uma erudição invejável, também nos ensinava que o [...] conjunto de situações-tipo presentes no Código Civil brasileiro, sob a denominação de direitos da personalidade, não deve ser lido de forma a excluir absolutamente outras hipóteses não previstas. Na verdade, muito mais importante que esse elenco (tímido) é sua leitura à luz da cláusula geral de proteção da personalidade presente na Constituição. Assim, a chamada "positivação" dos direitos da personalidade pelo Código Civil não é o elemento fundador desses direitos, mas tem a função de orientar a interpretação e facilitar sua aplicação e tutela, em hipóteses onde a experiência ou a natureza dos interesses inspirem o legislador a tratá-las com maior detalhe (Doneda, 2020, 73; grifo nosso) Os dados pessoais, sensíveis ou não, como mencionado anteriormente, previstos na LGPD, são uma espécie do gênero direitos da personalidade. Esses dados estão intrinsecamente ligados à dignidade humana e à proteção da identidade e privacidade de cada indivíduo, conectando-os diretamente aos direitos fundamentais de personalidade assegurados pela CF/88 e pelo CC. Assim como o nome, a imagem e a honra, os dados pessoais integram esse conjunto de direitos inalienáveis, cuja função é garantir o livre desenvolvimento da pessoa, tanto no ambiente físico quanto no digital. Nesse sentido, o que a ANPD realizou foi deslocar o conceito jurídico de tutela post mortem de seu contexto macrossocial para um contexto isolado, o que se mostra equivocado (Doneda, 2020, p. 71). Outro aspecto, já decorrente da interpretação da ANPD sobre o tema, é em relação ao consentimento. A LGPD, em seu art. 7º, inciso I, estabelece o consentimento como uma das bases legais para o tratamento de dados pessoais, ressaltando a necessidade de autorização explícita do titular para que seus dados sejam tratados. No entanto, a lei é omissa quanto ao consentimento em relação aos dados pessoais de pessoas falecidas, deixando um vácuo jurídico sobre a continuidade do controle desses dados após a morte do titular.  A problemática emerge mais claramente à luz da nota técnica da ANPD, quando se considera as situações em que o titular dos dados, ainda em vida, consentiu explicitamente com o uso de suas informações. Em tais casos, cabe indagar: após o falecimento, terão os legitimados - familiares ou representantes legais - o direito de representação para intervir e resguardar a privacidade e dignidade desses dados? Essa questão envolve uma tensão entre a vontade do titular em vida e a tutela póstuma dos dados, que exige consideração cuidadosa dos direitos de personalidade e da dignidade da memória. Por outro lado, o cenário se torna ainda mais complexo quando se trata de titulares que não manifestaram consentimento prévio quanto ao uso de seus dados após a morte. Nesse caso, recai sobre a PRF a responsabilidade de determinar a condução do tratamento desses dados de maneira que respeite tanto a memória do titular quanto os interesses dos legitimados, levando em conta a ausência de consentimento explícito. Aqui, a questão da transparência se torna fundamental: como a PRF comunicará o tratamento desses dados aos legitimados? E, em que medida esses representantes poderão intervir ou mesmo se opor ao uso dos dados, na ausência de uma manifestação direta do titular? Portanto, a ausência de diretrizes específicas da ANPD quanto à comunicação e ao consentimento post mortem cria um espaço de incerteza que desafia a PRF a agir de maneira prudente e ética, evitando interpretações discricionárias que possam gerar violação indireta dos direitos de personalidade, mesmo após a morte. __________ 1 Disponível aqui. 2 CUPIS, Adriano de. Os Direitos da Personalidade. São Paulo: Quorum, 2008. 3 DONEDA, Danilo Cesar M. Da Privacidade à Proteção de Dados Pessoais: elementos da formação da Lei Geral de Proteção de Dados. 2ª ed. São Paulo: Thomson Reuters Brasil, 2020. (e-book). 4 GADAMER, Hans-Georg. Verdade e Método II. 2ª ed. Petrópolis: Vozes, 2004. 5 KELSEN, Hans. Teoria Pura do Direito. 6ª ed. São Paulo: Martins Fontes, 1998. 6 STRECK, Lenio Luiz. Hermenêutica Jurídica E(m) Crise: uma exploração hermenêutica da construção do Direito. 11ª ed. Porto Alegre: Livraria do Advogado Editora, 2014.
A "Administração do Espaço Cibernético da China" (CAC) implementou em 1º de março de 2022 o documento "Disposições sobre o Gerenciamento de Recomendações Algorítmicas nos Serviços de Internet da Informação" (República Popular da China, 2022), com o objetivo de controlar e gerenciar os serviços de recomendação algorítmica em todo o território da China Continental. A "recomendação algorítmica" pode ser definida pela geração, síntese, refinamentos e filtragem de pesquisas, mediante intrincados processos de tomada de decisão, conforme disposição do documento regulatório chinês. Tais serviços são utilizados, majoritariamente, nas redes sociais - o aparecimento de recomendações de músicas, sites e até mesmo publicidade, é mediado pelos algoritmos de refinamento, os quais utilizam o aprendizado de máquina (machine learning) para automatizar decisões e prever o comportamento dos usuários a partir de um vasto histórico de dados de treinamento (Hao, 2022) Todavia, atualmente tais algoritmos respaldados de I.A. são verdadeiras "black boxes", ou seja, não são considerados transparentes pois dificultam a visualização das consequências de seu uso. Trata-se, na realidade, de uma meta de governança de sistemas de inteligência artificial (I.A.) a fim de entender como as empresas (principalmente de tecnologia e de redes sociais) são capazes de influenciar o discurso online. É nesse ínterim que a referida regulamentação cria o "repositório de algoritmos" (ou "arquivamento estatal de algoritmos"): Provedores que possuam capacidade de mobilização social e/ou influência da opinião pública devem fornecer uma série de informações para as autoridades estatais responsáveis no prazo de dez dias úteis, além da realização de avaliações de segurança e inspeções de supervisão (República Popular da China, 2022). Esse banco representa uma ferramenta inovadora nas políticas regulatórias chinesas, no entanto, o ocidente não visualizou a iniciativa com bons olhos, intitulando-a de "agressiva" e "intrigante" (Hao, 2022). Neste artigo, serão identificados os principais argumentos a favor e contra a implementação de tais repositórios, assim como a sua comparação com o projeto principiante brasileiro de criação de bases de dados comuns. A República Popular da China e o repositório de algoritmos O supracitado documento inaugura o início das restrições chinesas aos algoritmos de I.A., tomando os primeiros passos, no plano mundial, para a regulação de sistemas intrínsecos à internet (Sheeran, 2023, p. 12). O CAC vem publicando, regularmente, as informações de algoritmos estruturantes de diversas empresas influentes na internet, como ByteDance Ltd (dona do TikTok), Alibaba Group Holding Ltd. e Tencent Holdings Ltd., dono do app WeChat (Hao, 2022). As informações requisitadas vão desde o nome do provedor e do formulário de serviços, o campo de aplicação, o tipo de algoritmo, o relatório de autoavaliação do algoritmo, até o tipo de conteúdo a ser exibido (República Popular da China, 2022). O repositório abarca todos os dados provenientes dos algoritmos das empresas chinesas e forma uma base de dados pública, contendo o processo de criação, treinamento, implantação e alimentação dos algoritmos criados. Para a estrutura governamental chinesa, o repositório de algoritmos é como um baú de objetos preciosos: justamente aqueles que têm o condão de influenciar a opinião pública são depositados, ou seja, minuciosamente analisados e controlados para refletirem os valores socialistas fundamentais chineses, a ideologia do "Partido Comunista Chinês", e as orientações presentes nos discursos do Secretário Geral e líder da nação - Xi Jinping (Sheeran, 2023, p. 19). A RPC já possui um histórico de detalhado planejamento econômico - a saber, a "economia de projetamento" (Jabbour, Gabrielle, 2021, p. 150)  -, logo, apesar de questionável no ocidente, é uma prática comum no país do leste asiático. Assim, para um país movido por uma ideologia extremamente explícita e imiscuída em todas as instâncias da sociedade, o repositório garante a manutenção do discurso político oficial. Outro benefício decorrente dessa vigilância é a prevenção de condutas anticompetitivas, da formação de monopólios e oligopólios, e da disseminação de ideias antiéticas (vício em apostas e pornografia, por exemplo) (República Popular da China, 2022). O governo "coage" as empresas a revelarem informações confidenciais sobre as tecnologias que alimentam suas plataformas, arquivando os segredos comerciais e industriais. Por fim, em uma nova leva de entrega de relatórios, os reguladores implementaram a regra de "limpar os efeitos negativos dos algoritmos", mediante a amplificação de informações prejudiciais, violação da privacidade do usuário e abuso de trabalhadores temporários (Hao, 2022). Em síntese, o regulamento exige a utilização dos algoritmos ??para a promoção da "energia positiva" - frase de Xi Jinping que eleva a opinião pública sobre o governo e a credibilidade do PCC (Hao, 2022). A Europa e os EUA também tentam manusear os algoritmos de redes sociais a fim de combater a desinformação e as fake news, além de promover a saúde mental dos jovens. No entanto, eles são bastante complexos - verdadeiras "caixas pretas" - tornando realmente difícil o deciframento e/ou antecipamento de suas consequências.  Devido a isso, o ocidente encara a tentativa chinesa de manipular e arquivar algoritmos de I.A. como precipitada e "impossível" - Cathy O'Neil, auditora algorítmica, revela: "Na verdade é impossível controlar o que um mecanismo de recomendação faz no geral" (Hao, 2022). Ela argumenta que mesmo com o acesso total a todos os dados, os quais mudam a cada interação do usuário, os próprios engenheiros computacionais lutam para ajustar os comportamentos dos sistemas por eles próprios criados (Hao, 2022). Há de se considerar que, se o controle dos algoritmos ainda é difícil, mesmo com todos os dados disponíveis, seria ainda mais dificultoso para o governo chinês, já que a natureza das informações publicadas no site oficial é bastante singela. Todavia, o CAC publicou no site do registro de algoritmos (a fim de orientar os provedores no processo de submissão de informações), um manual do usuário (provedor dos sistemas de algoritmos de I.A.) para download (República Popular da China, 2024), com a solicitação de diversas informações adicionais para além daquelas publicadas no site inicial. Logo, percebe-se que foram exigidas inúmeras informações adicionais além daquelas publicadas, como: recursos biométricos, informações pessoais, lista dos conjuntos de dados de código aberto e "códigos autoconstruídos" nos quais o algoritmo foi treinado (Sheehan, 2023, p. 30). É evidente que o CAC divulga apenas uma diminuta parte das informações ao público, mantendo aquelas estratégicas, competitivas, pessoais e confidenciais, sob sigilo absoluto. Nas legislações lançadas posteriormente ("Disposições sobre a Administração de Serviços de Síntese Profunda da Internet da Informação - 2022" e "Medidas Provisórias para a Gestão de Serviços de Inteligência Artificial Generativa - 2023)" ainda permanece a previsão de depósito dos algoritmos no repositório, o qual,  no presente estágio, se caracteriza mais como um processo de licenciamento do que como um mero registro, já que os provedores não podem oferecer os seus serviços enquanto os reguladores não houverem aprovado os novos modelos algorítmicos. O fato dos principais alvos dessa medida se constituírem por empresas privadas revela as "condições" de funcionamento impostas pela estrutura governamental chinesa não visualizadas no ocidente. A questão sobre a verdadeira natureza da economia da RPC - socialismo de mercado ou capitalismo de Estado - não é o tópico deste artigo, mas certamente espelha esse caráter incisivo mencionado pela notícia publicada no "The Wall Street Journal" (Hao, 2022) - um dos principais jornais da mídia capitalista ocidental. Em relação ao Brasil, não existe qualquer tipo de iniciativa semelhante àquela da RPC no sentido de coletar as informações de algoritmos de empresas privadas, no entanto, o "Plano brasileiro de Inteligência Artificial" (2024-2028), apresentado em 30 de junho aos membros do governo e ao público em geral, contém uma iniciativa intitulada: "Nuvem soberana" - gerida por órgãos governamentais ou empresas públicas, comportando um ecossistema robusto de dados públicos. Apesar da falta de detalhamento e de sua recente divulgação, percebe-se que compartilha apenas um dos objetivos do repositório - junção de todos os dados em somente um lugar, para rápido e fácil acesso - se distanciando das características particulares ao primeiro (base de dados estatal, parcial divulgação ao público, imposição de sigilo sobre determinadas informações, etc). Considerações Finais Em relação ao aparato governamental, o repositório estatal de algoritmos chinês, configura uma ótima estratégia não somente para manter o controle sobre informações divulgadas à sociedade e sobre algoritmos com capacidade de mobilização pública, mas também para a construção de um banco de dados de origem empresarial e social, garantindo a competitividade econômica (das empresas privadas nacionais). Todavia, do ponto de vista do corpus social, tal arquivamento não desvela segurança jurídica, pois todas as informações biométricas e pessoais que os algoritmos utilizam para realizar suas predições agora também estarão em mãos governamentais. Percebe-se a ausência de consentimento livre e informado, além da implementação de uma conjuntura crítica, visto que os dados biométricos são extremamente sensíveis. Portanto, se o Brasil possuísse ânsia por implementá-lo nacionalmente, deveria investir, primeiramente, em um aparato de governança para gerir, de modo mais adequado, as informações sensíveis das empresas particulares assim como os dados biométricos e confidenciais da população. Caso contrário, a fiabilidade, não somente do repositório, mas também da própria estrutura governamental brasileira, será posta em xeque. ________ HANYU. Primeira recomendação do algoritmo de revisão do People's Daily Online: não deixe o algoritmo determinar o conteúdo. People's Daily Online: 18/09/2017. Disponível aqui. Acesso em: 30 de setembro de 2024. HAO, Karen. China May Be Chasing Impossible Dream by Trying to Harness Internet Algorithms. The Wall Street Journal. 30/08/2022. Disponível aqui. Acesso em: 06 de outubro de 2024. SHEEHAN, Matt. Tracing the Roots of China's AI Regulations. Carnegie Endowment for International Peace. Washington, DC. 2024. Disponível em: . Acesso em: 03 de outubro de 2024. SHEEHAN, Matt. China's AI Regulations and How They Get Made. Carnegie Endowment for International Peace. Washington, DC. 2023. Disponível em: . Acesso em: 03 de outubro de 2024. REPÚBLICA POPULAR DA CHINA. Disposições sobre avaliação da segurança dos serviços de informação da Internet com atributos de opinião pública ou capacidades de mobilização social. Administração do espaço cibernético da China. Rede de Informações da Rede China. 15/11/2018. Disponível aqui. Acesso em: 06 de outubro de 2024. REPÚBLICA POPULAR DA CHINA. Anúncio da Administração do Ciberespaço da China sobre a divulgação de informações de registro de algoritmo de serviço de informações da Internet. Administração do espaço cibernético da China. Rede de Informações da Rede China. 08/2024. Disponível aqui. Acesso em: 06 de outubro de 2024. REPÚBLICA POPULAR DA CHINA. Disposições sobre o gerenciamento de recomendações algorítmicas nos serviços de informações da Internet. Administração do espaço cibernético da China; Ministério da Indústria e Tecnologia da Informação; Ministério da Segurança Pública; Administração Estatal de Regulamentação do Mercado. Tradução de: China Law Translate. 31/12/2021. Disponível aqui.
Após 6 anos de promulgação da Lei Geral de Proteção de Dados Pessoais (LGPD), ainda pairam incertezas e leituras inconclusivas sobre alguns de seus conceitos, embora haja consenso de que o marco regulatório surgiu em um contexto global de crescente valorização da privacidade e da proteção de dados pessoais, acompanhando a tendência estabelecida pelo Regulamento Geral sobre a Proteção de Dados (RGPD) da União Europeia. Dentre os principais conceitos da LGPD, destaca-se o tratamento de dados pessoais, que engloba toda e qualquer operação que envolva o uso de dados pessoais, conforme estabelecido no inciso X do artigo 5º da lei. Ao lado desse conceito, encontramos o uso compartilhado de dados, previsto no inciso XVI do mesmo artigo, que, por sua vez, apresenta uma definição mais complexa e sujeita a interpretações diversas, especialmente quando se trata do regime aplicável ao Poder Público e à transferência internacional de dados. Com efeito, o conceito de tratamento de dados pessoais abrange qualquer operação realizada com dados pessoais, como coleta, produção, recepção, classificação, utilização, acesso, reprodução, transmissão, distribuição, processamento, arquivamento, armazenamento, eliminação, avaliação, modificação, comunicação, transferência, difusão ou extração. Essa definição é ampla e exemplificativa - o que se infere pela própria opção do legislador pela utilização do advérbio "como" após apresentar o conceito no mencionado inciso X - pois contempla todas as atividades que podem envolver dados pessoais, seja no âmbito privado ou público. A abrangência do conceito de tratamento de dados é proposital, visando garantir que qualquer tipo de operação com dados pessoais seja devidamente regulada pela LGPD. Nesse sentido, a definição reflete a necessidade de proteger os direitos dos titulares de dados em todas as etapas do ciclo de vida dos dados pessoais. O inciso XVI do artigo 5º da LGPD define, por sua vez, o uso compartilhado de dados como a "comunicação, difusão, transferência internacional, interconexão de dados pessoais ou tratamento compartilhado de bancos de dados pessoais por órgãos e entidades públicos no cumprimento de suas competências legais, ou entre estes e entes privados, com autorização específica, para uma ou mais modalidades de tratamento permitidas por esses entes públicos, ou entre entes privados". Embora o conceito seja claro em termos de abrangência das operações que podem ser consideradas de uso compartilhado, levanta dúvidas quanto à sua distinção em relação ao tratamento de dados, especialmente quando envolve os participantes do compartilhamento, em três situações: (i) apenas entre entes públicos; (ii) entre ente público e ente privado; (iii) entre entes privados. Além disso, a inclusão de termos como "comunicação" e "difusão", que também aparecem no rol exemplificativo do inciso V, e "interconexão", que é um termo totalmente novo e não conceituado, cria uma zona cinzenta, dificultando a compreensão de quando o uso compartilhado se distingue do tratamento de dados como um todo. A confusão torna-se ainda mais evidente no âmbito das relações entre o Poder Público e entidades privadas, já que o uso compartilhado é tratado como uma modalidade qualificada de tratamento de dados, mas uma possível explicação para a fragmentação do conceito de uso compartilhado em relação ao tratamento de dados reside na estruturação de um duplo regime para o Poder Público, conforme previsto no Capítulo IV da LGPD. O artigo 23 regula o tratamento de dados pessoais por parte de entes públicos, impondo condições específicas para que dados pessoais sejam manejados no exercício de suas competências, quais sejam: o cumprimento de finalidade pública e o atendimento do interesse público. Já o artigo 26 busca assegurar que o compartilhamento de dados ocorra de maneira responsável, respeitando os princípios de proteção de dados previstos no artigo 6º da lei, como a finalidade, necessidade e segurança. A previsão é de que o uso compartilhado atenda diretamente a interesses públicos legítimos, evitando abusos ou utilizações indevidas de informações pessoais. Pertinente a reflexão de Luiza Leite Cabral Loureiro Coutinho: "Diferentemente das relações privadas, em que o titular de dados faz escolhas em se relacionar ou não com determinada pessoa jurídica cadastrando, ou não, seus dados na base de dados de um site de compras, por exemplo, para que possa exercer a qualidade de consumidor de produtos e serviços daquele fornecedor, tal condição de optante na relação jurídica com o Poder Público não existe, uma vez que todos, como cidadãos, em função do pacto social, são compelidos a se relacionarem com o Estado, que coleta massivamente dados de toda a população desde o nascimento de cada cidadão até a sua morte"1. A existência de dois regimes distintos para o Poder Público é um reflexo da necessidade de definir diretrizes específicas para as operações realizadas por entes públicos, tanto no que tange ao tratamento interno de dados quanto ao compartilhamento com outras entidades. O uso compartilhado de dados, nesse contexto, surge como uma categoria especial de tratamento de dados, que exige a observância de regras adicionais. Sabe-se, pois, que a LGPD foi fortemente inspirada no RGPD, norma supranacional válida para todos os países-membros da União Europeia. O RGPD estabelece uma base sólida para a proteção de dados pessoais, permitindo que cada país membro internalize suas diretrizes com adaptações às suas realidades locais. No entanto, não aborda explicitamente o conceito de uso compartilhado de dados, deixando margem para interpretações variadas. Essa lacuna no regulamento europeu reflete a diversidade de regimes jurídicos existentes entre os países que integram a União Europeia, especialmente no que diz respeito ao tratamento de dados pelo Poder Público2. Por isso, a decisão do legislador brasileiro de criar um conceito específico para o uso compartilhado de dados busca evitar possíveis ambiguidades e garantir que o regime de tratamento pelo Poder Público seja devidamente tutelado. O §1º do artigo 26 da LGPD é claro ao estabelece restrições e exceções para o compartilhamento de dados pelo Poder Público a entidades privadas. Em regra, tal atividade é proibida, exceto em situações específicas como a descentralização de atividades públicas, nos casos em que os dados sejam acessíveis publicamente, ou quando houver previsão legal ou respaldo em contratos administrativos, convênios ou outros instrumentos congêneres. Além disso, a transferência também é permitida em situações que visem à prevenção de fraudes, irregularidades, ou à proteção da segurança e integridade do titular dos dados, desde que as finalidades sejam claras e delimitadas. Já o §2º define que quaisquer contratos e convênios que envolvam a transferência de dados pessoais entre o Poder Público e entidades privadas devem ser comunicados à Autoridade Nacional de Proteção de Dados (ANPD). Essa exigência reforça a transparência e o controle sobre o uso de dados pessoais, garantindo que a ANPD possa fiscalizar e monitorar as operações de tratamento de dados, assegurando a conformidade com a legislação e os direitos dos titulares de dados. A ANPD, no Guia Orientativo sobre o Tratamento de Dados Pessoais pelo Poder Público, cuja segunda versão foi publicada em junho de 20233, explica que o compartilhamento de dados pessoais ocorre quando órgãos e entidades públicas concedem acesso ou transferem bases de dados para outros entes públicos ou privados com o objetivo de atender finalidades públicas. Na visão da autoridade nacional, o conceito de "uso compartilhado de dados", definido pela LGPD, inclui várias formas de transferência e comunicação de dados para o cumprimento de competências legais. Esse uso é essencial para atividades rotineiras do Poder Público, como pagamento de servidores e prestação de serviços públicos. No entanto, o uso compartilhado deve seguir os princípios e bases legais da LGPD, garantindo transparência, segurança jurídica e a proteção dos direitos dos titulares, evitando abusos e desvios de finalidade. Para orientar o Poder Público, a ANPD destaca os principais requisitos a serem observados nesses processos, ajustáveis conforme o contexto de cada caso. A tabela do Anexo I do Guia Orientativo da ANPD detalha os requisitos e recomendações para o uso compartilhado de dados pessoais pelo Poder Público, a saber: (a) Formalização e registro: Recomenda-se a instauração de um processo administrativo formal, incluindo análise técnica e jurídica, decisão administrativa por meio de contrato ou convênio, além da edição de ato normativo interno; (b) Objeto e finalidade: O uso compartilhado deve especificar de forma objetiva e detalhada os dados pessoais envolvidos, a finalidade específica desse uso, e deve ser feita uma avaliação da compatibilidade entre a finalidade original e a nova finalidade do compartilhamento; (c) Base legal: É necessário indicar a base legal que justifica o uso compartilhado, conforme previsto na LGPD, reforçando a importância de seguir as normas adequadas para o tratamento de dados; (d) Duração do tratamento: Deve-se definir claramente o período durante o qual os dados serão compartilhados, com justificativa fundamentada e também é necessário esclarecer se os dados serão conservados após o término do tratamento ou se serão eliminados; (e) Transparência e direitos dos titulares: Informações sobre o compartilhamento devem ser divulgadas de forma clara, tanto nas páginas eletrônicas das entidades envolvidas quanto diretamente para os titulares de dados, isto é, a entidade deve se certificar de que essas informações sejam facilmente compreensíveis e deve definir as responsabilidades e os procedimentos para atender solicitações dos titulares; (f) Prevenção e segurança: Recomenda-se a adoção de medidas técnicas e administrativas adequadas para proteger os dados pessoais e evitar incidentes de segurança; (g) Outros requisitos: A depender do caso concreto, outros requisitos podem ser necessários, como a autorização para novos compartilhamentos, a responsabilidade financeira, e a elaboração de relatórios de impacto à proteção de dados. Esses requisitos visam garantir uma gestão cuidadosa e segura dos dados durante todo o processo. No mais, embora o uso compartilhado de dados entre entes privados seja permitido pela LGPD, sua aplicação é mais restrita e deve obedecer a critérios específicos4. Todavia, não há regime específico definido na lei para que tal atividade de tratamento seja realizada, o que cria incertezas sobre a própria necessidade da distinção conceitual. Quiçá a única passagem na qual se observa a relevância dessa distinção para a iniciativa privada seja o §4º do artigo 11 da LGPD, que proíbe o uso compartilhado de dados pessoais sensíveis referentes à saúde entre controladores com o objetivo de obter vantagem econômica. No entanto, existem exceções a essa regra, como nos casos de prestação de serviços de saúde, assistência farmacêutica e assistência à saúde, desde que tais práticas beneficiem os interesses dos titulares de dados e sigam o § 5º do mesmo artigo. Essas exceções permitem o uso compartilhado de dados sensíveis para assegurar a portabilidade de dados, quando solicitada pelo titular, e para facilitar transações financeiras e administrativas decorrentes da prestação de serviços de saúde. Essas exceções estão relacionadas a situações em que o compartilhamento é necessário para o cumprimento de uma obrigação legal ou regulatória, para a execução de contratos, ou para a proteção da vida e da integridade física do titular dos dados ou de terceiros. Além disso, o uso compartilhado entre entes privados deve ser avaliado à luz das demais disposições da LGPD, especialmente no que se refere à necessidade de garantir a segurança dos dados e o cumprimento dos princípios gerais da Lei. O conceito de uso compartilhado de dados na LGPD, embora à primeira vista pareça confuso, é uma ferramenta importante para regular as operações de tratamento de dados no Brasil, especialmente quando envolve o Poder Público e a transferência internacional de dados. A distinção entre o uso compartilhado e o tratamento de dados é essencial para a aplicação correta das normas previstas na lei, garantindo que as atividades de tratamento sejam realizadas de acordo com o regime jurídico adequado. A inspiração no RGPD é evidente, mas o legislador brasileiro foi além, criando um conceito próprio para o uso compartilhado de dados que leva em consideração as peculiaridades do sistema jurídico nacional e as necessidades do setor público. Em conclusão, o uso compartilhado de dados deve ser visto como uma modalidade qualificada de tratamento de dados, aplicável em contextos específicos, e que exige a observância de regras claras e bem definidas para garantir a proteção dos direitos dos titulares de dados e a conformidade com a legislação vigente. __________ 1 COUTINHO, Luiza Leite Cabral Loureiro. Um sistema government-to-business de compartilhamento de dados: os riscos e limites de incidência do artigo 26 da Lei Geral de Proteção de Dados. In: CRAVO, Daniela Copetti; JOBIM, Eduardo; FALEIROS JÚNIOR, José Luiz de Moura (coord.). Direito público e tecnologia. Indaiatuba: Foco, 2022, p. 323-324. 2 LIMBERGER, Têmis. Artigo 23. In: MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti; FALEIROS JÚNIOR, José Luiz de Moura (coord.). Comentários à Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018). 2. ed. Indaiatuba: Foco, 2022, p. 281-285. 3 AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS (ANPD). Guia orientativo sobre o tratamento de dados pessoais pelo Poder Público. Versão 2.0. Brasília, 2023. Disponível aqui. Acesso em: 03 out. 2024. 4 LIMBERGER, Têmis. Artigo 26. In: MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti; FALEIROS JÚNIOR, José Luiz de Moura (coord.). Comentários à Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018). 2. ed. Indaiatuba: Foco, 2022, p. 309.
sexta-feira, 27 de setembro de 2024

A IA que a ONU quer ver

Entre os dias 20 e 23 deste mês de setembro, vários chefes de Estado e de governo dos 193 Estados-membros da ONU, representantes da porção jovem do mundo e representantes da sociedade civil, pesquisadores e o setor privado reuniram-se, na sede das Nações Unidas, em Nova Iorque, para a Cúpula do Futuro 2024. Esta reunião não só abrangeu temas sobre Inteligência Artificial (IA), mas também outros temas foram debatidos, tais como: a pobreza extrema e a fome no mundo; as emissões de gases de efeito estufa; os conflitos bélicos e políticos que ocasionam grandes deslocamentos de pessoas; as ameaças ao planeta devido às mudanças climática e, como era esperado, os riscos associados às novas tecnologias. Todas estas discussões passam pela afirmação política da instituição alegando que "a governança multilateral, concebida em tempos mais simples e mais lentos, deixou de ser adequada para a realidade complexa, interligada e em rápida mutação dos nossos dias"1. Entenderam isso? Na verdade, esta discussão sobre futuro, nesta organização, é uma discussão antiga que começou na reunião da Assembleia Geral da ONU em setembro de 2022. Esta foi a reunião que formatou a atual Cúpula do Futuro, incluindo aqui seu propósito "de reforçar a governança global em favor das gerações presentes e futuras ... com recomendações para fazer avançar a nossa agenda comum e responder às questões atuais e desafios futuros"2. As primeiras decisões desta Assembleia Geral de 2022 culminaram num documento de maio de 20233 que destaca os principais pontos e visões dessa cooperativa chamada ONU. Essa visão global da IA está bem retratada no relatório final sobre "Governança da Inteligência Artificial para a Humanidade"4 lançado no dia 17 de setembro de 2024, às vésperas da Cúpula do Futuro. Elenco abaixo as conclusões resumidas deste documento de mais de 100 páginas e que são apresentadas logo a partir da sétima página. O que a ONU pensa sobre a IA 1. A inteligência artificial (IA) está revolucionando diversos setores ao abrir novas fronteiras científicas, otimizar redes de energia, melhorar a saúde pública e a agricultura, além de apoiar o progresso em relação aos Objetivos de Desenvolvimento Sustentável (ODS). 2. Sem governança adequada, as oportunidades da IA podem não se manifestar ou ser distribuídas de forma equitativa, ampliando a desigualdade digital e limitando os benefícios a poucos Estados, empresas e indivíduos. A falta de confiança e governança ineficaz pode restringir o potencial da IA. 3. A IA também traz riscos, como o viés e a vigilância, além de novas preocupações, como as "alucinações" dos modelos de linguagem, disseminação de desinformação, riscos à paz e segurança, e o consumo de energia em tempos de crise climática. 4. Sistemas de IA rápidos, opacos e autônomos desafiam as regulamentações tradicionais e podem transformar o mundo do trabalho. Armas autônomas e usos de IA na segurança pública levantam questões legais, de segurança e humanitárias sérias. 5. Atualmente, há um déficit de governança global em relação à IA. Apesar das discussões sobre ética e princípios, o conjunto de normas e instituições ainda é incipiente e cheio de lacunas. A responsabilidade é frequentemente ausente, especialmente no uso de sistemas de IA inexplicáveis que afetam os outros, e o cumprimento das regras muitas vezes depende do voluntarismo, em contraste com o discurso. 6. Como observado em nosso relatório provisório, a governança da IA é crucial, não apenas para enfrentar os desafios e riscos, mas também para garantir que aproveitemos o potencial da IA de maneira inclusiva. Sim, são estes os pontos principais que não parecem estar tão preocupados com os benefícios que a ciência sempre trouxe para o mundo como estão com a governança da IA, ou seja, quem irá ditar as regras da IA. Dos seis tópicos, metade deles foca em governança. Será que realmente a IA está tão "desgovernada" assim. Sera que a IA é realmente esse agente tecnológico com esse potencial ofensivo a humanidade? Outros agentes tecnológicos disruptivos De tempos em tempos a tecnologia prega peças na gente. Qual leitor aqui se lembra quando a humanidade passou apreensiva pelo réveillon do ano de 1999, bem na virada do século? Pois foi um susto antes e um susto maior depois. Um susto antes pois, no século passado, era comum os softwares armazenarem apenas os últimos dois dígitos do ano por razões de economia de memória. Sendo assim, existia a expectativa que muitos programas de computador, na virada do século, fossem interpretar o ano novo, 2000, como o ano de 1900. Como ficariam os satélites? As emissões de passagens aéreas? Os boletos com vencimento em janeiro? Foram muitas horas gastas para remediar a situação que fora então chamado de "bug do milênio"5. O outro susto foi na efetiva mudança de século: praticamente nada aconteceu. O réveillon foi um sucesso. O bug... parece que quem viu este bug, por coincidência, também viu o cometa Halley anos antes. Um pouco mais próximo de nós, em maio de 2008, "o STF decidiu que as pesquisas com células-tronco embrionárias não violam o direito à vida, tampouco a dignidade da pessoa humana. Esses argumentos foram utilizados pelo ex-procurador-geral da República, Claudio Fonteles, na  ADIn 3510 ajuizada com o propósito de impedir essa linha de estudo científico"6. Nesta época, tivemos grandes discussões na sociedade, principalmente na definição de quando se dá o início da vida e, outras como a possibilidade de uso destas células para clonagem humana. O STF apaziguou ambas. Levantei estes dois temas anteriores pois, cada um ao seu modo, ambos apresentam evoluções da ciência que, de alguma forma, impactaram a sociedade. Muito embora o mundo já tenha enfrentado desafios semelhantes e, talvez, mais impactantes, com outras "engenhocas" disruptivas, tais como a máquina a vapor, os motores elétricos, o avião, o telefone, e até mesmo a iluminação pública que dizimou o emprego dos acendedores de postes no começo do século XX no Brasil; talvez nada se compare aos efeitos da Computação, tanto para o progresso, quanto para o malefício. O computador é uma máquina que tem o potencial de "invadir" todas as atividades humanas, como já está fazendo há alguns anos. Por isso mesmo, que logo ao ser criada, essa máquina já tinha a alcunha de ser a única máquina universal que o homem já havia criado, dadas suas possibilidades de aplicações. Preocupações com a IA Aqui eu destaco que, quando comentamos sobre os avanços da IA, muitas vezes estamos nos referindo apenas (e não apenas) às aplicações da IA. Não apenas, pois são estas aplicações da IA que irão participar do nosso cotidiano. São estas aplicações que irão escolher os filmes de streaming que iremos assistir, irão dirigir os aviões, irão pilotar automóveis as ruas, escolher o que iremos ver nas redes sociais, auxiliar nas nossas redações no trabalho... percebam que estas são aplicações da IA que já estão presentes nas nossas vidas. O que será que ainda está por vir? A resposta a esta última pergunta está nas pesquisas sobre IA. Esta resposta ainda está sendo elaborada. Neste ponto, não há organização neste mundo que consiga "brecar" esta atividade. Percebam que não há paralelo na comparação entre pesquisas em laboratórios de biociências, como foi o caso das células troncos embrionárias, nas quais as pesquisas só podem ser realizadas em locais físicos, com recursos físicos (os embriões, as células), em alguns poucos laboratórios bem desenvolvidos e constituídos por um grupo de pesquisadores, com pesquisa em computação. Neste último caso, os computadores são abundantes, quase onipresentes. Todo cientista da computação tem acesso a dezenas deles, dos mais simples, aos mais sofisticados. Os modelos estão nos livros, nos artigos científicos. Pesquisar em IA é uma tarefa que envolve conhecimento, técnica, inovação, criatividade e criação de códigos, ou seja, de software. Neste "pequeno mundo" da Computação, ainda quase tudo é possível. A IA que o mundo deveria ver A seguir, elenco os desafios que eu acredito que as pesquisa sobre Inteligência Artificial poderão trazer respostas: 1. Educação. Como usar os recursos da IA para oferecer uma educação de qualidade para todos os jovens? Como estes recursos podem ser usados para eliminar as barreiras de acesso tecnológico que hoje existe para os mais velhos, para as pessoas com incapacidades físicas, para as pessoas com poucos recursos financeiros e os que vivem distantes dos grandes centros. Como fazer uma educação inclusiva com a IA que temos hoje? 2. Saúde. Como promover um acesso mais igualitário a saúde por meio da IA? Como abranger mais pessoas? Como melhorar suas condições sanitárias e físicas? Como usar a IA para aproximar as famílias distantes, os deficientes físicos das escolas, dos centros de saúde? 3. Agricultura. Como usar a IA para aumentar a produção de alimentos frescos e fazer com que estes alimentos cheguem a todos, independentemente de sua situação na geografia do planeta, de sua situação financeira? 4. Segurança. Como usar a IA para aumentar nossa segurança nas cidades e no campo. Nossa segurança financeira, nossa segurança com nossos dados pessoais, nossa segurança nos transportes, nas compras e outras transações. 5. Serviços e produção. Como usar a IA para permitir aos cidadãos mais acesso aos serviços públicos, mais cidadania. Como usar a IA para facilitar o trabalho braçal, aumentar a mecanização e treinar e oferecer trabalhos menos desgastantes fisicamente para as pessoas. E por fim, 6. Liberdade. Como usar a IA e fazer do mundo um lugar de cidadãos globais, com direito de ir e vir sem serem importunados por motivos de fé, crença, religião, cor da pele, crenças e opiniões. Como usar a IA para que as pessoas sejam e se sintam efetivamente livres para exporem suas opiniões sem sofrerem retaliações, para fazê-las donas dos seus deveres como serão dos seus direitos. Estão aqui seis pontos de discussão que a ONU poderia encampar, em contraste com os seis anteriormente apresentados. Sei que é muita a pretensão deste autor, mas... São seis pontos de discussão que todos os estados membros podem trabalhar em suas "casas" e não se sentirem presos a esta agremiação que acha que os problemas do mundo são tantos que as nações independentes precisam da opinião de um escritório geral de burocratas para resolverem seus, nossos problemas. Para tantos a IA é um problema, mas para muitos a IA é um desafio e será uma solução para um mundo bem melhor, um mundo de pessoas responsáveis, livres e governadas por pessoas que eles escolheram pelo sufrágio universal. __________  1 Cúpula do Futuro. Aja agora para o nosso futuro comum. Disponível aqui. Último acesso em 23 de setembro de 2024. 2 Resolution adopted by the General Assembly on 8 September 2022. Disponível aqui. Último acesso em 23 de setembro de 2024. 3 Our Common Agenda. Policy Brief 5. A Global Digital Compact an Open, Free and Secure Digital Future for All. Disponível aqui. Último acesso em 24 de setembro de 2024. 4 Governança da Inteligência Artificial para a Humanidade. Disponível aqui. Último acesso em 23 de setembro de 2024. 5 "Bug do milênio": 20 anos do primeiro grande desafio de cibersegurança. Disponível aqui. Último acesso em 23 de setembro de 2024. 6 STF libera pesquisas com células-tronco embrionárias. Disponível aqui. Último acesso em 23 de setembro de 2024.
A lei 14.790/2023, também conhecida como Lei das Bets, a qual dispõe sobre a modalidade lotérica denominada apostas de quota fixa, alterou as normas brasileiras sobre a temática1. Com as novas regras, apostas virtuais, apostas físicas, evento real de temática esportiva, jogos online, e eventos virtuais de jogos online são regulamentados2. No artigo 2º, a legislação apresenta glossário sobre os termos cruciais para o seu entendimento3. A apresentação do significado dos vocábulos é importante para garantir a segurança jurídica e evitar conflitos mediante a redação apresentada. Segundo o supramencionado artigo, apresentam-se os seguintes significados: aposta, quota-fixa, apostador, canal eletrônico, aposta virtual, aposta física, evento real de temática esportiva, jogos online, evento virtual de jogo online, agente operador de apostas, e aplicações de internet. Enquanto isso, o artigo 3º define apostas de quota fixa como os eventos reais de temática esportiva e os eventos virtuais de jogos online4. Qualquer empresa que pretenda atuar no mercado de apostas de quota fixa, no Brasil, deverá obter licença comercial, mediante prévia autorização a ser expedida pelo Ministério da Fazenda. De acordo com a legislação, os agentes operadores de apostas que tenham o direito de exploração da atividade no Brasil poderão dar início a sua atuação a partir de 1º de janeiro de 2025. Todas as organizações que estejam pleiteando o licenciamento devem, desde o dia 29 de dezembro de 2023, seguir a legislação aplicável6, e todas outras normativas sobre o tema7. 1. MUDANÇA DE PARADIGMA: ANTES E DEPOIS DA LEI Nº 14.790, DE 29 DE DEZEMBRO DE 2023 A aposta de quota fixa, popularmente conhecida como aposta esportiva, foi autorizada no Brasil em 2018, por meio da Lei nº 13.7568. Entretanto, como não houve regulamentação adicional sobre o tema, os apostadores estavam desamparados, tendo em vista que as empresas exploradoras dessa atividade estavam sediadas, exclusivamente, em outros países9. Em 2018, a regulamentação das apostas no Brasil apresentava distinções significativas entre os tipos de eventos. Eram permitidas as apostas esportivas de quota fixa, nas quais o valor do prêmio era determinado previamente ao evento esportivo. Em contrapartida, as apostas em eventos virtuais de jogos online não estavam autorizadas refletindo uma lacuna regulatória que não contemplava a crescente complexidade e demanda desse segmento e causando um cenário de instabilidade jurídica, afetando diretamente o consumidor. Anteriormente à Lei nº 14.790/2023, o panorama das apostas no Brasil era caracterizado pela permissão de atuação, mas falta de regulamentação sobre o tema10. A legislação estipulava que as empresas que oferecessem os serviços de apostas online poderiam funcionar por meio de sites que estivessem hospedados em domínios fora do Brasil11. No que diz respeito à tributação, todo o montante arrecadado pelas organizações era remetido para fora do Brasil, não incidindo a aplicabilidade de taxas ou impostos federais, apesar da exploração da atividade no país12. Devido à falta de conexão entre o marco legal existente e a realidade do mercado de apostas no Brasil, que apresentou crescimento exponencial nos últimos anos, em 2023, aprovou-se a Lei nº 14.790/2023. A nova regulação mudou o paradigma sobre apostas online no país, estabelecendo deveres e responsabilidades às empresas do setor13. A nova lei apresenta como foco a responsabilidade, a integridade e a transparência, estabelecendo padrões rigorosos para os agentes operadores, como a adoção de práticas consumeristas compatíveis com o Código de Defesa do Consumidor (CDC)14, a proteção integral de crianças e adolescentes, como disciplina o Estatuto da Criança e do Adolescente (ECA)15, a proteção de dados pessoais conforme a Lei Geral de Proteção de Dados (LGPD)16, a implementação de robusto sistema direcionado ao combate à lavagem de dinheiro e financiamento do terrorismo17, prevenção a fraudes e manipulações de apostas, e o incentivo ao jogo responsável e prevenção de comportamentos patológicos18. A partir de um quadro legal claro e detalhado para a operação dessas atividades. O governo brasileiro pretende aumentar a transparência, promover a segurança dos apostadores, e incentivar as boas práticas no mercado de apostas online. 2. O PAPEL REGULADOR DA SECRETARIA DE PRÊMIOS E APOSTAS A Secretaria de Prêmios e Apostas (SPA), vinculada ao Ministério da Fazenda, foi criada para regular o setor de apostas e prêmios no Brasil. A supervisão das operações de apostas, a emissão de licenças e o monitoramento do cumprimento das normas estabelecidas pela legislação será de responsabilidade da secretaria.19. As organizações devem cumprir uma série de requisitos para oferecer serviços de apostas legais no Brasil20, a SPA tem como objetivo proteger os direitos dos apostadores, garantindo que os jogos e apostas sejam conduzidos de forma segura e que os prêmios sejam pagos conforme acordado entre o apostador e o agente operador. O órgão é responsável pela gestão da receita gerada pelas apostas e prêmios, isso inclui o recolhimento de impostos e contribuições financeiras relacionados a essas atividades, assegurando que a arrecadação esteja alinhada com as políticas fiscais do governo. Em relação à tributação, a Lei das Bets estabelece que, do total arrecadado após as deduções pertinentes, 88% serão direcionados para custear e manter o agente operador. Já os outros 12% serão distribuídos da seguinte forma: 36% serão destinados ao setor esportivo; 28% ao turismo; 13,6% à segurança pública; 10% à área educacional; 10% à seguridade social; 1% será alocado para a implementação de medidas que visem prevenir, controlar e mitigar os danos sociais associados à prática de jogos21. 3. SOBRE AS CONDUTAS VEDADAS NA OFERTA DE APOSTAS O art. 29 trata sobre as condutas vedadas na oferta de apostas, estabelecendo a proibição de oferta de qualquer forma de adiantamento, bônus ou vantagem prévia para incentivar apostas. Isso destaca o compromisso do legislador em prevenir comportamentos que podem induzir o consumidor22. O art. 29 proíbe aos agentes operadores conceder adiantamentos, bonificações ou vantagens prévias a apostadores, mesmo que para promoção. Também veda a formação de parcerias para facilitar crédito ou fomento mercantil para apostadores e a instalação de qualquer agência ou representação que ofereça crédito ou operações financeiras dentro de seus estabelecimentos. Essas regras visam garantir o jogo responsável, a proteção do consumidor e os direitos do apostador. Além disso, existem diversos requisitos que devem ser cumpridos por parte das organizações, inclusive cláusulas de advertência ao consumidor, as quais devem ser incluídas nas mensagens publicitárias veiculadas23. Na mesma direção, a Portaria SPA/MF nº 1.231/2024 estabelece regras e diretrizes para as ações de comunicação e marketing, para o jogo responsável e regulamenta os direitos e deveres de apostadores e de agentes operadores24. 4. POLÍTICA DO JOGO RESPONSÁVEL E PREVENÇÃO AOS TRANSTORNOS DE JOGO PATOLÓGICO A Portaria SPA/MF nº 1.231/2024 estabelece uma série de dispositivos legais para complementar as disposições e acelerar a implementação das práticas de jogo responsável25. A política de jogo responsável é um conjunto de práticas adotadas por empresas de apostas para garantir que suas atividades sejam éticas e seguras, protegendo os apostadores, prevenindo vícios e promovendo uma experiência de jogo justa. Para a expansão do mercado de apostas online no Brasil, é essencial que haja responsabilidade multisetorial quanto às práticas de jogo responsável e prevenção de comportamentos patológicos por parte dos apostadores. Sendo assim, os agentes operadores têm a obrigatoriedade de implementá-las e incentivá-las, reforçando a segurança e a integridade do serviço prestado.  Para promover o jogo responsável, as empresas devem adotar uma série de ferramentas que garantam a proteção dos jogadores e um ambiente de jogo seguro. Devem ser levados em conta requisitos como consciência sobre as regras adotadas pela plataforma, as reais chances de perdas e ganhos por parte do jogador, a falta de relação entre a capacidade física e intelectual do apostador com o resultado aleatório dos eventos virtuais de jogos online26, por exemplo. Nesse sentido, dentre os recursos necessários para que haja ciência sobre os riscos do jogo, estão as opções de suporte ao consumidor e disponibilização de informação facilmente acessível27. Também destacam-se algumas das medidas que podem ser implementadas por parte dos agentes operadores, como: limites de depósito28, autoexclusão29, alertas30, definição de pausa31, suporte ao apostador32, materiais educativos33. 5. COMENTÁRIOS FINAIS A regulamentação de apostas online no Brasil é crucial para garantir um mercado seguro e transparente ao apostador, protegendo todos os direitos previstos constitucional e infraconstitucionalmente. Ao estabelecer normas claras e rigorosas, é possível estabelecer cooperação multissetorial em prol da prevenção de fraudes, garantindo que os agentes operadores respeitem as leis locais, assegurem os direitos dos apostadores, e recolham taxas e impostos necessários à exploração de atividade econômica no país. Políticas voltadas à prevenção de problemas associados ao jogo compulsivo, promovendo práticas de jogo responsável, e oferecendo  suporte àqueles que possam enfrentar dificuldades são essenciais. Isso não só protege a saúde e o bem-estar dos apostadores, como também contribui para um ambiente de apostas controlado e justo. A expectativa para o setor é de que as novas regras reforcem a integridade e transparência das operações, principalmente com a obrigação de que as empresas estejam sediadas no Brasil e condicionadas à jurisdição local. Se as normas estabelecidas pela Lei nº 14.790/2023 não forem cumpridas, os agentes operadores podem ser multados em até R$ 2 bilhões de reais34. Do ponto de vista econômico, o mercado de apostas bem regulamentado e responsável pode gerar receitas significativas para o governo por meio de impostos e taxas, incentivando e movimentando a indústria brasileira em diversos setores. Do ponto de vista legal, a regulação sobre a matéria é um passo em direção ao estabelecimento de segurança jurídica, beneficiando o apostador, o consumidor, e o titular de dados pessoais, nas suas diversas posições de vulnerabilidade. ________         1 De acordo com o art. 1º da Lei nº 14.790/2023: "Art. 1. Esta Lei dispõe sobre a modalidade lotérica denominada apostas de quota fixa e altera: I - a Lei nº 5.768, de 20 de dezembro de 1971, para consolidar e estabelecer novas regras sobre a distribuição gratuita de prêmios a título de propaganda e sobre a distribuição de prêmios realizada por organizações da sociedade civil, com o intuito de arrecadar recursos adicionais destinados à sua manutenção ou custeio; II - a Lei nº 13.756, de 12 de dezembro de 2018, para estabelecer diretrizes e regras para a exploração da loteria de apostas de quota fixa; e III - a Medida Provisória nº 2.158-35, de 24 de agosto de 2001, para dispor sobre a taxa de autorização referente às atividades de que trata a Lei nº 5.768, de 20 de dezembro de 1971". Para mais informações: https://www.planalto.gov.br/ccivil_03/_ato2023-2026/2023/lei/l14790.htm#art57-3.b. 2 A Lei nº 14.790/2023 "dispõe sobre a modalidade lotérica denominada apostas de quota fixa; altera as Leis nºs 5.768, de 20 de dezembro de 1971, e 13.756, de 12 de dezembro de 2018, e a Medida Provisória nº 2.158-35, de 24 de agosto de 2001; revoga dispositivos do Decreto-Lei nº 204, de 27 de fevereiro de 1967; e dá outras providências.". 3 De acordo com o art. 2º da Lei nº 14.790/2023: "Art. 2º Para fins do disposto nesta Lei, considera-se: I - aposta: ato por meio do qual se coloca determinado valor em risco na expectativa de obtenção de um prêmio; II - quota fixa: fator de multiplicação do valor apostado que define o montante a ser recebido pelo apostador, em caso de premiação, para cada unidade de moeda nacional apostada; III - apostador: pessoa natural que realiza aposta; IV - canal eletrônico: plataforma, que pode ser sítio eletrônico, aplicação de internet, ou ambas, de propriedade ou sob administração do agente operador de apostas, que viabiliza a realização de aposta por meio exclusivamente virtual; V - aposta virtual: aquela realizada diretamente pelo apostador em canal eletrônico, antes ou durante a ocorrência do evento objeto da aposta; VI - aposta física: aquela realizada presencialmente mediante a aquisição de bilhete em forma impressa, antes ou durante a ocorrência do evento objeto da aposta; VII - evento real de temática esportiva: evento, competição ou ato que inclui competições desportivas, torneios, jogos ou provas, individuais ou coletivos, excluídos aqueles que envolvem exclusivamente a participação de menores de 18 (dezoito) anos de idade, cujo resultado é desconhecido no momento da aposta e que são promovidos ou organizados: a) de acordo com as regras estabelecidas pela organização nacional de administração do esporte, na forma prevista na Lei nº 14.597, de 14 de junho de 2023 (Lei Geral do Esporte), ou por suas organizações afiliadas; ou b) por organizações de administração do esporte sediadas fora do País; VIII - jogo on-line: canal eletrônico que viabiliza a aposta virtual em jogo no qual o resultado é determinado pelo desfecho de evento futuro aleatório, a partir de um gerador randômico de números, de símbolos, de figuras ou de objetos definido no sistema de regras; IX - evento virtual de jogo on-line: evento, competição ou ato de jogo on-line cujo resultado é desconhecido no momento da aposta; X - agente operador de apostas: pessoa jurídica que recebe autorização do Ministério da Fazenda para explorar apostas de quota fixa; e XI - aplicações de internet: o conjunto de funcionalidades que podem ser acessadas por meio de um terminal conectado à internet.". Para mais informações: https://www.planalto.gov.br/ccivil_03/_ato2023-2026/2023/lei/l14790.htm#art57-3.b. 4 De acordo com o art. 3º da Lei nº 14.790/2023: "Art. 3º As apostas de quota fixa de que trata esta Lei poderão ter por objeto: I - eventos reais de temática esportiva; ou II - eventos virtuais de jogos on-line.". 5 De acordo com o art. 12 da Lei nº 14.790/2023: "Art. 12. A expedição da autorização para exploração de apostas de quota fixa será condicionada ao recolhimento do valor fixo de contraprestação de outorga, conforme estipulado na regulamentação do Ministério da Fazenda. Parágrafo único. O valor estipulado a título de outorga fixa será limitado a, no máximo, R$ 30.000.000,00 (trinta milhões de reais), considerado o uso de 3 (três) marcas comerciais a serem exploradas pela pessoa jurídica em seus canais eletrônicos por ato de autorização.". 6 De acordo com o art. 58 da Lei nº 14.790/2023: "Art. 58. Esta Lei entra em vigor na data de sua publicação e produz efeitos: I - quanto ao inciso VI do caput do art. 39, a partir da data de vigência da regulamentação do Ministério da Fazenda que possibilite aos interessados a apresentação de pedido de autorização para a exploração de apostas de quota fixa; II - quanto ao art. 51, na parte em que altera o § 1º-A do art. 30 da Lei nº 13.756, de 12 de dezembro de 2018, para dispor sobre a contribuição à seguridade social, a partir do primeiro dia do quarto mês subsequente ao de sua publicação; III - quanto à alínea b do inciso III do caput do art. 57, a partir do primeiro dia do quarto mês subsequente ao de sua publicação; e IV - quanto aos demais dispositivos, na data de sua publicação." 7 Para mais informações sobre a legislação sobre apostas de quota fixa no Brasil. Disponível aqui. 8 Para mais informações sobre a Lei nº 13.756/ 2018. Disponível aqui. 9 BRASIL61. Apostas esportivas são permitidas desde 2018, mas ainda não existe regulamentação sobre tema, dizem especialistas. Disponível aqui. 10 BRASIL61. Apostas esportivas são permitidas desde 2018, mas ainda não existe regulamentação sobre tema, dizem especialistas. Disponível aqui. 11 BRASIL61. Apostas esportivas são permitidas desde 2018, mas ainda não existe regulamentação sobre tema, dizem especialistas. Disponível aqui. 12 BRASIL61. Apostas esportivas são permitidas desde 2018, mas ainda não existe regulamentação sobre tema, dizem especialistas. Disponível aqui. 13 Para mais informações, verificar a Lei nº 14.790/2023. Disponível aqui. 14 Para mais informações sobre o Código de Defesa do Consumidor (CDC). Disponível aqui. 15 Para mais informações sobre o Estatuto da Criança e do Adolescente (ECA). Dinsponível aqui. 16 Para mais informações sobre a Lei Geral de Proteção de Dados (LGPD). Disponível aqui. 17 Para mais informações ver a Lei nº 9.613/1998, que "dispõe sobre os crimes de "lavagem" ou ocultação de bens, direitos e valores; a prevenção da utilização do sistema financeiro para os ilícitos previstos nesta Lei; cria o Conselho de Controle de Atividades Financeiras - COAF, e dá outras providências. Disponível aqui. Ver também a portaria SPA/MF nº 1.143/2024 estabelece políticas, procedimentos e controles internos de prevenção à lavagem de dinheiro. 18 Ver a Portaria SPA/MF nº 1.231/2024, que estabelece regras e diretrizes para o jogo responsável e para as ações de comunicação e marketing, e regulamenta os direitos e deveres de apostadores e de agentes operadores. 19 A Secretaria de Prêmios e Apostas foi estabelecida por meio do Decreto 11.907/2024. Disponível aqui. 20 Para mais informações sobre a Lei nº 13.756/ 2018. Disponível aqui. 21 Para mais informações, verificar o art. 30, § 1º-A da Lei nº 14.790/2023. Disponível aqui. 22 De acordo com o art. 29 da Lei nº 14.790/2023: "Art. 29. É vedado ao agente operador: I - conceder, sob qualquer forma, adiantamento, antecipação, bonificação ou vantagem prévia, ainda que a mero título de promoção, de divulgação ou de propaganda, para a realização de aposta; II - firmar parceria, convênio, contrato ou qualquer outra forma de arranjo ou ajuste negocial para viabilizar ou facilitar o acesso a crédito ou a operação de fomento mercantil por parte de apostador; e III - instalar ou permitir que se instale em seu estabelecimento físico qualquer agência, escritório ou representação de pessoa jurídica ou física que conceda crédito ou realize operação de fomento mercantil a apostadores.". 23 Conselho Nacional Brasileiro de Autorregulamentação Publicitária (CONAR). Código Brasileiro de Autorregulamentação Publicitária. Disponível aqui. 24 A Portaria SPA/MF nº 1231/2024 "estabelece regras e diretrizes para o jogo responsável e para as ações de comunicação, de publicidade e propaganda e de marketing, e regulamenta os direitos e deveres de apostadores e de agentes operadores, a serem observados na exploração comercial da modalidade lotérica de apostas de quota fixa de que tratam o art. 29 da Lei nº 13.756, de 12 de dezembro de 2018, e a Lei nº 14.790, de 29 de dezembro de 2023. Disponível aqui. 25 Disponível aqui. 26 A Portaria SPA/MF nº 1.207/2024 "estabelece requisitos técnicos para funcionamento e homologação dos jogos on-line e estúdios de jogos ao vivo, um dos objetos de apostas da modalidade lotérica de aposta de quota fixa.". Disponível aqui. 27 Ver "Princípios de responsabilidade social e jogo responsável". Disponível aqui. 28 Permitindo que os apostadores definam um valor máximo para depósitos em períodos diários, semanais ou mensais. 29 Possibilita ao usuário se afastar temporariamente ou permanentemente da plataforma de apostas. 30 Notificações periódicas sobre o tempo gasto no jogo. 31 Permite que os jogadores programem períodos específicos em que sua conta ficará inativa. 32 Canais de suporte podem ajudar jogadores com problemas, oferecendo assistência. 33 Oferecer orientações sobre como usar as ferramentas de controle e identificar comportamentos de risco. 34 De acordo com o art. 41 da Lei nº 14.790/2023: "Art. 41. São aplicáveis às pessoas físicas e jurídicas que infringirem o disposto nesta Lei as seguintes penalidades, de forma isolada ou cumulativa.".
Na Era da Informação, as pessoas têm acesso a uma infinidade de dados disponíveis na Internet, os quais estão dispersos na rede mundial de computadores, dificultando o acesso, a localização e a análise sistematizada dos mesmos.  No mundo corporativo, as pessoas jurídicas geram uma infinidade de dados que são processados, armazenados em servidores, podendo ser consultados pelos sócios, empregados e colaboradores. Porém, esses dados "brutos" pouco revelam sobre o negócio, tendências de consumo, perfil de clientes, aderência do mercado a produtos e a serviços, a não ser que sejam tratados1. Os dados, portanto, ganham valor estratégico e negocial quando são tratados, quando se transformam em informação, o que se dá a partir da avaliação, da análise, inclusive estatística, da sistematização e da parametrização dos dados. Os players do setor da tecnologia, cientes dessa dificuldade inerente à nova Era e dessa oportunidade mercadológica na exploração comercial desses dados, colocaram-se em franca concorrência no mercado tecnológico, porque o desenvolvimento de um software consiste na sistematização de instruções em sequência e na definição de dados, sendo este o ato de programar, etapa essencial da criação de um software.2 Os agentes do setor da tecnologia iniciaram uma corrida em direção ao desenvolvimento de sistemas de BI3, APPS4, IA's5 e plataformas de streaming, entre outras soluções tecnológicas que têm os dados por insumo, seja como conteúdo, seja como direcionamento de navegação e do consumo do usuário, seja como estrutura informacional da concepção da ferramenta. Diante de tal cenário, é correto afirmar que muitas das soluções tecnológicas na atualidade surgem e são concebidas a partir da organização, da parametrização e da análise estatística, sistematizada e contextualizada desses dados, revelando que eles possuem valor econômico. A valorização e a exploração econômica de um bem, material ou imaterial, gera interesse por parte da Ciência Jurídica, e o Direito tende a discipliná-lo e a tutelá-lo juridicamente, seja para acomodar os interesses envolvidos e sanear os conflitos, seja para garantir maior segurança e previsibilidade jurídicas aos negócios empresariais. Assim se deu na época do surgimento do software como bem explorado economicamente de modo independente do hardware, ou seja, da máquina que o processava.   O Direito se posicionou e reconheceu que o software deveria ser entendido como uma obra autoral, equiparando-o à obra literária6.   O mercado do software ganhou em complexidade, surgindo ao longo do tempo diversos tipos, como já tive a oportunidade de detalhar em artigo publicado na Revista Científica Virtual da Escola Superior de Advocacia de São Paulo/SP, Edição 35 de 20207.  Para o presente artigo, vale destacar entre esses tipos, os aplicativos8, os APPS9, os videogames, entre outros, de modo que qualquer que seja o tipo de programa de computador, deve ser ele tratado, reconhecido e disciplinado como obra autoral. Não são apenas os softwares protegidos por Direito de Autor; o banco de dados também é reconhecido pela lei como obra autoral.10 Desse modo, os dados reunidos e organizados a partir de uma determinada lógica ou critério, passam a integrar um banco de dados. Tanto o banco de dados, como os programas de computador, sendo obras autorais, garantem ao desenvolvedor o direito de propriedade e, com ele o direito de uso, de exploração, de adaptação, de modificação, entre outros direitos previstos na lei. Os dados, a partir da perspectiva do banco de dados, deixam de ser apenas um insumo, para ser parte integrante de uma obra autoral, explorável economicamente, independentemente de um sistema de computador ou de outra criação intelectual. Os dados, assim considerados, ganham relevância e uma tutela diversa daquela consignada na Lei Geral de Proteção de Dados.  Individualmente considerados, os dados continuarão a pertencer a seus titulares, sujeitos à Lei Geral de Proteção de Dados.  Porém, os dados organizados e parametrizados poderão compor um banco de dados, passível de ser detido como propriedade autoral por uma outra pessoa, geralmente uma pessoa jurídica - o controlador, por exemplo11 -, e por ela explorado comercialmente.   Evidente que dessa relação poderão surgir conflitos entre os titulares dos dados e o proprietário do banco de dados. Outro fato da atualidade no tocante à indústria do software repousa no interesse dos empresários em perseguir uma proteção autônoma aos seus elementos (internos e externos).  Sob essa perspectiva, revela-se importante conhecê-los, a fim de perquirir qual proteção legal é possível12. Listo-os a seguir:  MICROCÓDIGOS - sequências de instruções internas acessíveis por microprocessador; PROGRAMA-OBJETO - consiste no registro ou na transcrição do código binário em fita, disco, disquete, placa de memória do programa-fonte;  LINGUAGEM DE PROGRAMAÇÃO - conjunto de regras gramaticais e de símbolos.  Envolve as regras da linguagem que traduzem o código binário; PASTA DE ESPECIFICAÇÕES E INFORMAÇÕES - dados e informações pesquisadas, desenvolvidas e utilizadas para a programação, para a idealização do programa;  ORGANOGRAMAS, AS ANÁLISES ORGÂNICAS E FUNCIONAIS - projetos ou roteiros, incluindo "projetos funcionais" que são resultados de cálculos científicos e organogramas, que podem consistir em uma compilação de dados com análise orgânica; ALGORITMOS E REGRAS - regras gerais e princípios matemáticos a partir dos quais se desenvolvem os programas e sistemas de criptografias; ESTRUTURA E ARQUITETURA DOS PROGRAMAS - entenda-se, aqui, o encadeamento ou a organização dos subprogramas;  PROGRAMA-FONTE - lista de instruções que compõe o programa; FUNCIONALIDADES, ASPECTO TELEVISUAL, INTERFACE DO USUÁRIO E CLONES DE PROGRAMAS - são desenhos ou modelos, expressão televisual, ícones, interface do usuário menus e comandos para interação do usuário com o sistema; DOCUMENTOS E MANUAIS DO USUÁRIO - textos explicativos de funcionamento do programa para leitura pelo usuário, utilizados para auxiliar a compreensão e o correto uso; BASE DE DADOS - conjunto de dados organizados consistente em arquivos eletrônicos de dados e de informações determinados e organizados para serem usados juntamente e pelo programa. A base de dados - ou banco de dados - é reconhecidamente um elemento do software, o qual é protegido de forma autônoma pelo Direito de Autor, como acima indicado.  Ou seja, além de o software, em si e em sua integralidade, ser uma obra autoral, o banco de dados que o integrar poderá ser protegido individualmente como obra autoral autônoma. Essa reflexão é importante porque, a depender de como o software é concebido e desenvolvido, pode se reservar e garantir a propriedade do banco de dados a uma pessoa (idealizador), e o programa de computador à outra (desenvolvedor), por exemplo.   Sarah A. Hinchliffe reconhece que o banco de dados pode ser envolvido na operação de um APP13, e, assim sendo, os direitos relativos a esse banco de dados devem ser observados e respeitados. Nesse diapasão se o banco de dados for prévio ao APP ou outro tipo de software, o desenvolvedor deverá obter autorização prévia do titular do banco de dados para uso no desenvolvimento (licença prévia para uso do banco de dados). Porém, segundo a teoria do fair use14, se forem utilizados apenas poucos elementos, ou se o uso for necessário para garantir a integração das tecnologias, então o licenciamento poderá ser dispensado.  Também é possível que um banco de dados público informe um APP, que poderá ser reconhecido como obra autoral e, consequentemente, como propriedade privada de um agente econômico em particular15. Por fim, outro elemento que merece reflexão é a pasta de informações. Os programas de computador, na atualidade, deixaram de ser horizontais (gerais que atendem a várias profissões, a vários setores da economia) para serem verticais (com aplicações específicas e próprias de um determinado setor), fato que inverte o valor da pasta de informações, que reúne dados e informações próprias daquele que encomenda o desenvolvimento de um software, justamente para que atenda às suas necessidades específicas.  O desenvolvedor não detém, via de regra, conhecimento prévio desses dados e informações que pertencem ao encomendante, e não são de domínio público.  Dito isso, a software house deverá obter autorização para usar economicamente a pasta das especificações e das informações no desenvolvimento de aplicativos e sistemas de computador que quiser comercializar por conta própria, cuja propriedade, via de regra, reclama para si, não obstante serem do encomendante os dados e as informações utilizadas na concepção do programa.  Em contrapartida, é possível ao encomendante reclamar para si a titularidade do programa, justamente porque o elemento central e chave é a pasta de informações, de titularidade do encomendante, informações essas relevantes ao negócio. Também é possível que a pasta de informações seja protegida pelo dever de confidencialidade, a ser estabelecido contratualmente, e, ainda, pelo Direito Concorrencial, se o uso sem autorização do seu titular configurar ato de concorrência desleal16.   As reflexões apostas resumidamente neste artigo apenas revelam que a Economia 4.0 está alicerçada nos dados e no uso que deles se faz, de modo que eles ganham cada vez mais relevância para o mundo dos negócios e, consequentemente, para o Direito, merecendo mais estudos a partir dos diversos interesses que em torno deles gravitam, das variadas aplicações econômicas e das implicações jurídicas que os envolvem. __________ 1 A Lei Geral de Proteção de Dados (LGPD) define tratamento de dados como: Art. 5º Para os fins desta Lei, considera-se: (...) X - tratamento: toda operação realizada com dados pessoais, como as que se referem a coleta, produção, recepção, classificação, utilização, acesso, reprodução, transmissão, distribuição, processamento, arquivamento, armazenamento, eliminação, avaliação ou controle da informação, modificação, comunicação, transferência, difusão ou extração; 2 GOMES, Orlando. A Proteção dos Programas de Computador. 1-16. GOMES, Orlando et al. A proteção Jurídica do "Software". Rio de Janeiro: ed. Forense, 1985. p. 2 e 4 3 Sistemas de computador que realizam a análise dos dados direcionada para a estratégia do negócio, gerando uma inteligência negocial. 4 Sistemas computacionais desenvolvidos para serem usados em dispositivos eletrônicos móveis, como smartphones e tablets. 5 Inteligência Artificial. 6 Lei 9.609/1998 (Lei dos Programas de Computador) Art. 2º O regime de proteção à propriedade intelectual de programa de computador é o conferido às obras literárias pela legislação de direitos autorais e conexos vigentes no País, observado o disposto nesta Lei. 7 DOMINGUES, Alessandra de Azevedo Domingues. O Mercado dos APPS e as Possíveis Proteções Legais. Revista Científica Virtual da Escola Superior de Advocacia OAB/SP, Direito, Inovação e Tecnologia Desafios da Economia 4.0, DOMINGUES, Alessandra de Azevedo (coord.), n. 35, verão de 2020, p.10-32. disponível em: Revista Científica da Escola Superior de Advocacia: Direito, Inovação e Tecnologia - Ed. 35 by ESA OAB SP - Issuu. 8 Aplicativos são programas de computador operados pelo usuário; resolvem um problema determinado, sendo específicos quando tratam de uma necessidade do usuário, ou padrão quando concebidos para tratar a necessidade de uma categoria de usuários.  9 APPS são programas destinados aos equipamentos móveis, como tablets e smartphones, que funcionam da mesma maneira como um navegador da web por meio de comunicação via Internet. Tradução livre do trecho: "are software programs that run on devices including mobile, tablets and smartphones , and work in the same manner as a web browser by communication over the internet. (...)" in HINCHLIFFE, Sarah A. So, You've Created an App? disponível aqui, acesso em 09 de abril de 2016, p. 2. 10 A Lei de Direitos Autorais elenca, no artigo 7º., diversas criações do homem como obras autorais, entre as quais estão os programas de computador e o banco de dados (ou base de dados), conforme abaixo:  Art. 7º São obras intelectuais protegidas as criações do espírito, expressas por qualquer meio ou fixadas em qualquer suporte, tangível ou intangível, conhecido ou que se invente no futuro, tais como: XII - os programas de computador; XIII - as coletâneas ou compilações, antologias, enciclopédias, dicionários, bases de dados e outras obras, que, por sua seleção, organização ou disposição de seu conteúdo, constituam uma criação intelectual. 11 LGPD - Art. 5º Para os fins desta Lei, considera-se: VI - controlador: pessoa natural ou jurídica, de direito público ou privado, a quem competem as decisões referentes ao tratamento de dados pessoais; 12 Vide BERTRAND, André. A Proteção Jurídica dos Programas de Computador: notas de SOUZA, Marco Antonio Costa, ROCHA, Manuel Lopes. tradução DRESCH, Vanise Pereira. Porto Alegre: Livraria do Advogado, 1996, WACHOWICZ, Marcos. Propriedade Intelectual do Software & Revolução da Tecnologia da Informação. 1. ed. 3a. tir.  Curitiba: Juruá, 2006 e LOBO, Carlos Augusto da Silveira. A Proteção Jurídica dos Programas de Computador. 95-113. in GOMES, Orlando et al. A proteção Jurídica do "Software". Rio de Janeiro: ed. Forense, 1985. 13 HINCHLIFFE, Sarah A. So, You've Created an App? disponível aqui, acesso em 09 de abril de 2016, p.2. 14 O Fair Use é instituto constante da lei de Copyright americana, que representa uma relativização da propriedade do autor, em benefício do acesso ao conhecimento, através do qual, portanto, se busca conciliar os interesses privados e o público comum e coletivo. Para aplicar o Fair Use há que se levar em consideração os seguintes fatores: ü  O propósito e o caráter do uso, em especial sem natureza comercial e para fins educativos não lucrativos. ü  A natureza da obra (ficção ou não ficção, inédita ou publicada). ü  A quantidade e a substancialidade da porção usada em relação ao conjunto da obra (no Brasil entendimento Judiciário é que trecho seria até 10%, internacionalmente entendimento é que seria de até 25%) - quem usa está ajudando a divulgar a obra original (uso social). ü  O efeito do uso sobre o mercado potencial da obra protegida ou sobre o seu valor. A lei brasileira não agasalhou explicitamente essa figura, mas há entendimento na doutrina de que haveria a previsão do fair use no artigo 46 que reza: Art. 46. Não constitui ofensa aos direitos autorais: II - a reprodução, em um só exemplar de PEQUENOS TRECHOS, para uso privado do copista, desde que feita por este, sem intuito de lucro; VIII - a reprodução, em quaisquer obras, de PEQUENOS TRECHOS de obras preexistentes, de qualquer natureza, ou de obra integral, quando de artes plásticas, sempre que a reprodução em si não seja o objetivo principal da obra nova e que não prejudique a exploração normal da obra reproduzida nem cause um prejuízo injustificado aos legítimos interesses dos autores. Sobre o critério "pequenos trechos", leia-se as seguintes ponderações: "(...) A questão é saber o que se entende por 'pequeno trecho', uma vez que a lei não traz essa explicação, cabendo interpretá-la com base no bom senso. Obviamente, a reprodução de cinquenta por cento de uma obra não caracterizaria um 'pequeno trecho'. Apesar de a quantificação não ser a melhor forma de interpretar a extensão desse conceito, (...) Dessa forma, é importante saber o tamanho da obra reproduzida para que se possa verificar se a reprodução pode ou não ser caracterizada como 'pequeno trecho', de forma a ser utilizada sem necessidade de autorização. (...)" CARBONI, Guilherme. Fonte Conjur, acessado em 25.05.2016.   "Normalmente, entende-se por 'pequeno trecho' a reprodução de uma parte da obra que não prejudique a sua exploração normal, isto é, que as pessoas não deixem de comprar o original da obra por se darem por satisfeitas com a reprodução do pequeno trecho. Portanto, não se trata de uma questão meramente quantitativa da reprodução. Para conferir maior segurança jurídica, normalmente se deve levar em conta o tamanho da obra como um todo para verificar se a extensão da reprodução." Disponível aqui,  acessado em 25.05.2016. 15 vide LEE, Melissa, ALMIRALL, Esteve Ewareham, JONATHAN. Open Data & Civic Apps: 1st Generation Failures - 2nd Generation Improvements, disponível aqui, acesso em 15 de abril de 2016. 16 Segundo o artigo 195 da Lei da Propriedade Industrial (lei 9.279/96), comete crime de concorrência desleal quem: (...) XI - divulga, explora ou utiliza-se, sem autorização, de conhecimentos, informações ou dados confidenciais, utilizáveis na indústria, comércio ou prestação de serviços, excluídos aqueles que sejam de conhecimento público ou que sejam evidentes para um técnico no assunto, a que teve acesso mediante relação contratual ou empregatícia, mesmo após o término do contrato; XII - divulga, explora ou utiliza-se, sem autorização, de conhecimentos ou informações a que se refere o inciso anterior, obtidos por meios ilícitos ou a que teve acesso mediante fraude; (...) (grifei)
sexta-feira, 6 de setembro de 2024

A falta que faz um X

O fechamento de uma big-tech de redes sociais no Brasil, como ocorreu com o X (ex-Twitter) no último dia de agosto, pode ter uma série de consequências significativas que vão além de afetar diretamente quase que 10% da população brasileira que usa seus serviços1. A saída do X do Brasil trará consequências econômicas, sociais, científicas e políticas. Vamos iniciar esse tempo comentando um pouco sobre o X para ajudar a montar um contexto sobre a expulsão dos seus serviços no Brasil. Quem é o X da questão? A empresa original, Twitter, foi fundada em 2006 por três visionários (Jack Dorsey, Biz Stone, e Evan Williams) sob o conceito de ser uma plataforma de microblog que permitia aos usuários enviar mensagens curtas de até 140 caracteres, conhecidas como tweets. O Twitter rapidamente ganhou popularidade como uma plataforma para comunicação rápida e disseminação de informações em tempo real, especialmente durante eventos ao vivo e notícias de última hora. Ao longo dos anos, o Twitter enfrentou uma série de desafios relacionados ao crescimento de usuários, rentabilidade e, como sempre, às questões de moderação de conteúdo. Essas mesmas situações continuaram, mesmo depois de outubro de 2022, quando Elon Musk adquiriu o Twitter por aproximadamente US$ 44 bilhões e fechou seu capital. Ainda no mesmo ano, Musk anunciou várias mudanças na plataforma e na sua estrutura organizacional, incluindo alterações de políticas, promovendo demissões de pessoal e lançamentos de novas funcionalidades. Em 2023, Musk anunciou um rebranding do Twitter para "X," refletindo sua visão de transformar a plataforma num "super app", ou seja, expandir o escopo da plataforma além de sua função original de rede social, incorporando serviços financeiros e outros tipos de funcionalidades integradas, similar ao que é feito por super apps como o WeChat da China. O X, atualmente, não é uma empresa independente, mas é uma das três empresas coligadas que formam a X Corp., que também nasceu no mesmo ano de 2023. Só para formar um contexto mais amplo, uma das duas outras empresas foi criada com a intenção única de adquirir um empréstimo de US$ 13 bilhões justamente para adquirir o Twitter. Ainda sobre o conglomerado, a X Corp., é uma subsidiária da X Holding Corporation. Ambas as X, são empresas sediadas no estado de Nevada, nos EUA. Com um escritório no Brasil desde 2012, o X encerrou suas operações no último dia 17 de agosto, citando a ameaça do Ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), de prender a representante legal da empresa no país. Na época, o X local era uma empresa com cerca de 40 funcionários dirigidos Linda Yaccarino, diretora-executiva da big tech. Antes do período de instabilidade da empresa no Brasil, o X empregava 150 funcionários2. Alguns conjecturam sobre a pouca relevância da plataforma no Brasil relativamente a outros países. No entanto, conforme dados públicos do Statista, de abril deste ano, o Brasil era o sexto país com o maior número de usuários ativos no X, totalizando 21,48 milhões de usuários, ficando atrás do Reino Unido (24.3), Indonésia (24.8), Índia (25.4), Japão (69.2) e Estados Unidos (106.2). Por outro lado, a plataforma sofreu uma queda de 40% na receita um ano após a aquisição de Elon Musk, de acordo com o Wall Street Journal. O último relatório financeiro público da X é referente ao segundo trimestre de 2022, quando a empresa reportou uma receita de US$ 1,18 bilhão e um prejuízo de US$ 270 milhões3. Voltemos agora para analisar os eventuais impactos da saída desta empresa do Brasil. Consequências econômicas Perda de Empregos: Essa é a consequência mais óbvia. Os funcionários locais do X já perderam seus empregos, no entanto, como a empresa também tinha como fonte de rendimento a propaganda, diversos postos indiretos dos produtores de conteúdo de marketing digital também perderam uma fonte de recurso. Impacto em Negócios Locais: Muitas pequenas e médias empresas que dependem de plataformas de redes sociais para marketing e vendas diretas podem enfrentar desafios de encontrar seus clientes potenciais em novas redes sociais. A saída do X reduz o alcance de mercado destas empresas e afeta potencialmente suas receitas. Investimentos Estrangeiros: Pode haver uma redução no investimento estrangeiro direto, à medida que outras empresas de tecnologia reconsiderarem suas operações e investimentos futuros no país, temendo condições regulatórias, instabilidade jurídica ou sujeição às políticas semelhantes do STF.  Consequências sociais e acadêmicas Alteração na Dinâmica de Comunicação: Os usuários que dependiam desta rede social para manter conexões pessoais e profissionais precisam migrar para outras plataformas, o que pode alterar a dinâmica social. Três dias após o fechamento do X, seu concorrente mais próximo, a BlueSky, atraiu mais de 2 milhões de novos usuários4. Só por curiosidade, o próprio STF já abriu um perfil nesta plataforma que ainda não tem um representante legal no país, como exigido ao X5. Impacto na Informação e Mídia: Esta rede social recentemente se tornou uma fonte crítica de notícias e informações para muitos usuários. Seu fechamento afeta o acesso à informação e a pluralidade das fontes. Acadêmica: Entre as redes sociais, o atual X e o seu antecessor Twitter, eram as únicas fontes abertas de informação em redes sociais usadas por pesquisadores em todo o mundo. Particularmente, eu iniciei minhas pesquisas sobre um tema de Análise de Opinião/Sentimentos usando o Twitter em 2014. Os interessados em saber mais sobre o uso desta plataforma para a pesquisa podem utilizar o link nesta referência bibliográfica6.  Consequências políticas  Regulação e Censura: O fechamento do X é uma consequência clara de desentendimentos sobre políticas de regulação das mídias sociais, e também sobre censura e políticas de privacidade. A consequência é a intensificação de debates sobre temas anteriormente consagrados na sociedade e no arcabouço legal, tais como a liberdade de expressão e controle governamental sobre serviços privados. Um dos motores do desentendimento partiu de Alexandre de Moraes na inclusão de Elon Musk como investigado no inquérito das milícias digitais (INQ 4874). Como se não bastasse, o ministro instaurou um inquérito para investigar as ações de Musk em relação a crimes de obstrução à Justiça, organização criminosa e incitação ao crime. Impacto em Campanhas e Mobilização: Partidos políticos e ativistas de todos os espectros políticos e ideológicos sempre usaram as plataformas sociais para mobilizar e engajar cidadãos nos seus temas de campanhas. A descontinuidade da ferramenta de divulgação irá dificultar a replicação desses esforços em outras plataformas. Alinhamento político: A partir deste bloqueio o Brasil passa a fazer parte de um pequeno número de países que já usaram do mesmo expediente de exclusão digital, ou seja, figura ao lado da China que baniu também o Facebook, o Flickr e o Hotmail em 2009; o Iran que também baniu o X em 2009; a Rússia que em 2022 restringiu o acesso ao X, Facebook e Instagram; a Korea do Norte que em 2016 excluiu o então Twitter, o Facebook, YouTube e vários outros serviços web; o Turcomenistão que em 2018 bloqueou aplicativos de mídias sociais como X, WhatsApp e Facebook, além de sites de notícias estrangeiras e de oposição; Mianmar que após um golpe de estado em 2021 baniu o Instagram e o X; além do Uzbequistão que também pertence ao seleto grupo. Consequências tecnológicas Surgimento de Alternativas: O que se espera é que os usuários continuarão pautando seus serviços, informações e opiniões eventualmente em novos espaços digitais que impulsionarão o crescimento de plataformas sociais locais, regionais ou internacionais que preencham o vácuo deixado, incentivando e estimulando o desenvolvimento de novas tecnologias. As tecnologias de informação e comunicação social (TICS) abriram não só um novo mundo de comunicação dando voz a todos os cidadãos, como também passou a fornecer recursos aos pequenos empreendedores e assim facilitar sua projeção no mundo virtual. É também notável que essas mesmas TICS criaram e promoveram um espaço de difusão e expressão de ideias de grupos anteriormente dispersos geograficamente. Nós, usuários das redes sociais, criamos um universo virtual e paralelo de opções sem fazermos oposição ao mundo analógico anterior. Nos apossamos da liberdade de expressão e nos regulamos internamente pelos recursos de criação e movimentação entre os diversos grupos de discussão que nos acolhe na web. Criamos um espelho digital das interações sociais físicas que transcende barreiras geopolíticas e nos aproxima pelos interesses comuns. Já são quase 30 anos da internet comercial no Brasil. Nesse tempo formamos uma geração inteira, jovem e brilhante, criada nos moldes da livre expressão. Não há luz no fim do túnel para iniciativas que rompam essa nova realidade, com esse novo mundo. Para entender melhor esse drama: uma timeline parcial do X no Brasil Nov./2022 Equipes de moderação do Twitter são reduzidas e, depois, terceirizadas Dez./2022 Elon Musk suspende perfis de jornalistas que publicam localização em tempo real de pessoas, inclusive do seu jato particular Jan./2023 Twitter começa a ser denunciado por ocorrências do 8 de janeiro Abr./2023 Depois de ataques em escolas públicas, a justiça exige maior controle no conteúdo das mensagens postadas Abr./2023 Dia 24, nasce o X Abr./2023 Surgem notícias que o X cumpre pedidos de remoção e de moderação de perfis específicos Mai./2023 Linda Yaccarino é a nova CEO da empresa 03 de Abr./2024 Começam os Twitter Files Brasil 06 de Abr./2024 Musk compartilha os Twitter Files Brasil. Avisa que divulgará todos os pedidos de informação feitos por Alexandre de Moraes e removerá todas as restrições impostas à perfis do X feitas por ordem judicial 07 de Abr./2024 Moraes inclui Elon Musk no inquérito das milícias digitais 03 de Mai./2024 X para de exibir anúncios políticos no Brasil. Segue a decisão da Google Jul./2024 X começa a treinar IAs com os dados dos usuários 18 de Ago./2024 X recebe mandado de intimação e anuncia o fim da operação no Brasil 28 de Ago./2024 STF intima X a apresentar representante legal no Brasil em até 24h 30 de Ago./2024 Moraes determina o bloqueio do X por operadoras, redes de telefonia e lojas de aplicativos 31 de Ago./2024 X é bloqueado no Brasil. Não tenho conclusão. Talvez o desfecho fosse outro se tivéssemos seguido os trâmites usuais vistos num estado democrático de direito: denúncia, investigação, inquérito, acusação, audiência, julgamento, veredito, sentença, apelação execução da sentença. Cada etapa cumprida pela instância competente assegurando os direitos das partes.  __________ 1 X perde usuários no Brasil e seu bloqueio deve esvaziar ainda mais o portfólio de anunciantes. Valor Econômico. Disponível aqui. Último acesso em 3 de setembro de 2024. 2 Na gestão de Elon Musk, relevância da X no Brasil é posta em xeque. InfoMoney. Disponível aqui. Último acesso em 3 de setembro de 2024. 3 X's Tumultuous First Year Under Elon Musk, in Charts. Wall Street Jornal. Disponível aqui. Último acesso em 3 de setembro de 2024. 4 Com queda do X, BlueSky conquista mais de 2 milhões de novos usuários. Metrópoles. Disponível aqui. Último acesso em 3 de setembro de 2024. 5 Why Brazil's Supreme Court blocked X and what it means for the platform. Economic Times. Disponível aqui. Último acesso em 3 de setembro de 2024. 6 Exemplo de aplicações do Twitter no âmbito acadêmico. Link para teste aqui. Último acesso em 3 de setembro de 2024.
Considerações Iniciais  As garantias adequadas para a transferência internacional são de extrema relevância para se assegurar o livre fluxo de informações e do bem-estar do comércio em âmbito global. A discussão sobre os parâmetros e hipóteses de transferência de dados entre países, ou grupos de países, envolve aspectos técnicos, econômicos, jurídicos, de circulação de dados da internet, de modelos globais de negócio, a respeito das leis aplicáveis aos dados armazenados ou em circulação.1 A grande diversidade de modelos de proteção de dados traz consigo a necessidade de um esforço de convergência e interoperabilidade entre esses diferentes sistemas a fim de que tais fluxos sejam permitidos. Devido à necessidade de harmonização entre legislações de diferentes países, as operações além das fronteiras nacionais de um país implicam maiores riscos aos direitos e liberdades dos titulares2.  De acordo com a Portaria nº 11 de 27 de janeiro de 2021, que tornou pública a agenda regulatória da Autoridade Nacional de Proteção de Dados (ANPD) para o biênio 2021-2022, os artigos 33, 34 e 35 da LGPD começassem a ser regulamentados no segundo semestre de 20223.  Nessa direção, a ANPD seguiu com os procedimentos necessários ao andamento às exigências da regulação do fluxo internacional de dados na  Lei Geral de Proteção de Dados (LGPD)4 e publicou, em 23 de agosto de 2024, a Resolução CD/ANPD Nº 19, que aprova o Regulamento de Transfere^ncia Internacional de Dados e o conteu´do das cla´usulas-padra~o contratuais (CPCs).5 Diante da necessária busca de que o Brasil esteja dentro dos padrões internacionais relacionados às melhores práticas de proteção aos dados pessoais, ressalta-se a importância da matéria. A seguir objetiva-se uma breve análise sobre: 1. Lei Geral de Proteção de Dados e o Fluxo Internacional de Informações; 2. A Diferença entre Transferência Internacional de Dados e o Trânsito de Dados Pessoais; 3. 1. LEI GERAL DE PROTEÇÃO DE DADOS E O FLUXO INTERNACIONAL DE INFORMAÇÕESA partir da lei 13.7096, de 14 de agosto de 2018, conhecida como LGPD, o Brasil passou a ter normas específicas sobre o tratamento de dados pessoais. A proteção de dados pessoais, anteriormente tratada de maneira esparsa no ordenamento jurídico nacional, estruturou-se em uma legislação específica7. A LGPD inaugurou um sistema que está focado na prevenção e na criação de uma cultura de proteção de dados pessoais8. A legislação brasileira dialoga9 com outros diplomas legais vigentes, garantindo a ampla tutela aos titulares de dados10. Apresenta diferentes hipóteses para operações transfronteiriças, tratando do tema, especificamente, no Capítulo V, intitulado "Da Transferência Internacional de Dados", respectivamente, nos artigos 33 a 36.  A LGPD traz a previsão da transferência internacional de dados pessoais abordando os aspectos relacionados às regras aplicáveis ao fluxo para países e organismos internacionais. Ao total, são apresentadas nove hipóteses em que se permite o fluxo internacional de dados, sendo este considerado como um rol taxativo. Importa destacar que não há hierarquia entre entre os mecanismos de transfere^ncia, sendo que o me´todo escolhido dependera´ da finalidade e do contexto para o tratamento dos dados pessoais11. Em rol taxativo, o artigo 33 define as hipóteses em que a transferência internacional é permitida12. Alternativamente, o fluxo de informações pessoais para fora do território nacional só é permitido caso, i) os países ou organismos internacionais proporcionarem grau de proteção de dados pessoais adequado ao previsto na LGPD; ii) o controlador oferecer e comprovar garantias de cumprimento dos princípios, dos direitos do titular e do regime de proteção de dados previsto na LGPD; iii) a transferência for necessária para a cooperação jurídica internacional entre órgãos públicos de inteligência, de investigação e de persecução, de acordo com os instrumentos de direito internacional; iv) a transferência for necessária para a proteção da vida ou da incolumidade física do titular ou de terceiros; v) a autoridade nacional autorizar a transferência; vi) a transferência resultar em compromisso assumido em acordo de cooperação internacional; vii) a transferência for necessária para a execução de política pública ou atribuição legal do serviço público; viii) o titular tiver fornecido o seu consentimento específico e em destaque para a transferência, com informação prévia sobre o caráter internacional da operação, distinguindo, claramente, esta e outras finalidades; e ix) é necessária para atender às hipóteses previstas nos incisos II, V e VI do artigo 7º da LGPD. O artigo 34 está relacionado aos tópicos que devem ser levados em conta quando da definição de nível de proteção adequado de país estrangeiro ou organismo internacional13. O dispositivo 35 trata sobre a definição das CPCs e verificação de outras salvaguardas14, enquanto o artigo 36 apresenta observância aos princípios gerais de proteção e dos direitos do titular15. 2. A DIFERENÇA ENTRE TRANSFERÊNCIA INTERNACIONAL DE DADOS E O TRÂNSITO DE DADOS PESSOAIS Segundo Robert Bond, "'transferência" não é o mesmo que "trânsito" de informações16. Os dados pessoais podem passar pelo país B no caminho do país A para o país C, sem, no entanto, nenhuma operação de processamento substancial ocorrer neste caminho, já que a transferência é para o país C17. Por exemplo, no caso de uma empresa sediada na Alemanha enviar dados para uma empresa baseada nos Estados Unidos da América (EUA), mas, durante a transferência, os dados passarem pelo território uruguaio, sem, de fato, acontecer qualquer tratamento das informações no país. Casos como este servem de modelos para diferenciar "tranferência" e "trânsito", porque, na situação supramencionada, a operação internacional é realizada apenas entre a empresa alemã e a empresa norte-americana, sendo que os dados apenas transitaram no Uruguai18. Diante do fluxo internacional de dados, considera-se como "exportador" o agente de tratamento que transferirá os dados pessoais para um "importador", localizado em outro país. Considera-se como "importador" o agente de tratamento situado fora do território nacional, que receberá esses dados do "exportador". No exemplo acima, o "importador" seria a empresa norte-americana e o "exportador", a empresa alemã. 3. RESOLUÇÃO CD/ANPD Nº 19, DE 23 DE AGOSTO DE 2024  1. Publicada em 23 de agosto de 2024, a Resolução CD/ANPD Nº 19 aprova o Regulamento de Transfere^ncia Internacional de Dados e o conteu´do das cla´usulas-padra~o contratuais. As novas normas sobre o fluxo transfronteiriço de informações pessoais entram em vigor na data de sua publicac¸a~o, sendo assim, necessário que os agentes de tratamento se adequem às exigências sobre os procedimentos e regras aplicáveis a tais operações. 2. Em relação às cla´usulas contratuais para realizar transfere^ncias internacionais de dados devera~o incorporar as cla´usulas-padra~o contratuais aprovadas pela ANPD, existe o prazo de ate´ 12 (doze) meses, contados da data de publicac¸a~o da Resoluc¸a~o, para a adequação por parte dos agentes de tratamento. 3. A Resolução destaca os requisitos necessários para as operações que envolvam decisões de adequação, cláusulas contratuais específicas para determinada transferência, cláusulas-padrão contratuais e normas corporativas globais. Além disso, ressalta que é possível a realizac¸a~o de transfere^ncia internacional de dados com base nos mecanismos previstos no art. 33 da LGPD que na~o dependam de regulamentac¸a~o, desde que atendidas as  especificidades do caso concreto e os requisitos legais aplica´veis. 4. Destaca que a transfere^ncia internacional de dados pessoais deve ser realizada em conformidade com o disposto na LGPD e na Resolução, observadas as seguintes diretriz garantia de cumprimento dos princi´pios, dos direitos do titular e de ni´vel de protec¸a~o equivalente ao previsto na legislac¸a~o nacional, independentemente do pai´s onde estejam localizados os dados pessoais objeto da transfere^ncia. 5. Reitera a necessária a implementac¸a~o de medidas efetivas de transpare^ncia, assegurando o fornecimento de informac¸o~es claras, precisas e facilmente acessi´veis aos titulares. Além disso, a adoc¸a~o de boas pra´ticas e de medidas de prevenc¸a~o e seguranc¸a apropriadas e compati´veis com a natureza dos dados pessoais tratados, a finalidade do tratamento e os riscos envolvidos na operac¸a~o. 6. Defende que o fluxo internacional de informações deve estar limitado ao mi´nimo necessa´rio para o alcance de suas finalidades, com abrange^ncia dos dados pertinentes, proporcionais e na~o excessivos em relac¸a~o a`s finalidades do tratamento de dados. 7. Toda a operação somente será realizada para atender a propo´sitos legi´timos, especi´ficos, expli´citos e informados ao titular, sem possibilidade de tratamento posterior de forma incompati´vel com essas finalidades, e desde que amparada em uma das hipo´teses legais previstas no art. 7º ou no art. 11 da LGPD ou em um dos seguintes mecanismos va´lidos de realizac¸a~o da transfere^ncia internacional. 8. A aplicac¸a~o da legislac¸a~o nacional a` transfere^ncia internacional de dados independe do meio utilizado para sua realizac¸a~o, do pai´s de sede dos agentes de tratamento ou do pai´s onde estejam localizados os dados. 9. Estabelece que a LGPD é aplicável aos dados pessoais provenientes do exterior sempre que estes sejam objeto de tratamento no territo´rio nacional. A LGPD na~o se aplica aos dados pessoais provenientes do exterior somente quando ocorrer: a) tra^nsito de dados pessoais, sem a ocorre^ncia de comunicac¸a~o ou uso compartilhado de dados com agente de tratamento situado em territo´rio nacional; b) retorno dos dados pessoais, objeto de tratamento no territo´rio nacional, exclusivamente ao pai´s ou organismo internacional de provenie^ncia, desde que:o pai´s ou organismo internacional de provenie^ncia proporcione grau de protec¸a~o de dados pessoais adequado, reconhecido por decisa~o da ANPD; c) a legislac¸a~o do pai´s ou as normas aplica´veis ao organismo internacional de provenie^ncia se apliquem a` operac¸a~o realizada; d) a situac¸a~o especi´fica e excepcional de na~o aplicac¸a~o da LGPD. 10. Cabe ao controlador verificar se a operac¸a~o de tratamento:  a) caracteriza transfere^ncia internacional de dados;      b) submete-se a` legislac¸a~o nacional de protec¸a~o de dados pessoais; c) esta´ amparada em hipo´tese legal e em mecanismo de transfere^ncia internacional va´lidos. 11. A transfere^ncia internacional de dados sera´ caracterizada quando o exportador transferir dados pessoais para o importador. A coleta internacional de dados na~o caracteriza transfere^ncia internacional de dados e observara´ as disposic¸o~es da LGPD, quando verificada uma das hipo´teses indicadas no art. 3º da LGPD. 12. Quaisquer operações que envolvam aspecto transnacional devem respeitar os princípios de proteção de dados e salvaguardar os direitos dos titulares. A lei preve^ um conjunto de normas destinadas a garantir a higidez das operac¸o~es de transfere^ncia internacional19, estabelecendo que os países interessados neste tipo de transação devem oferecer garantias em mesmo grau que aquele oferecido pela LGPD. 13. O controlador ou o operador que deixem de adotar as medidas de segurança cabíveis respondem pelos danos decorrentes de violação da segurança dos dados. A LGPD imputa responsabilidade aos agentes de tratamento a definição sobre medidas técnicas, administrativas e de segurança, aptas a proteger os dados pessoais de acessos não autorizados e de situações acidentais, ou ilícitas, de destruição, perda, alteração, comunicação ou qualquer forma de tratamento inadequado ou ilícito20.  14. As CPCs aprovadas pela ANPD garantem que exportadores e importadores de dados apliquem as mesmas medidas técnicas e organizacionais, em termos de proteção de dados no Brasil. Dessa forma, garantindo a proteção dos direitos e liberdades dos titulares dos dados. 15. Em todos os casos de fluxo internacional de dados, deve-se realizar avaliação de todas as circunstâncias da transferência e deve-se considerar a adoção de medidas adicionais para garantir proteção suficiente aos titulares. 16. As cláusulas-modelo elaboradas pela autoridade brasileira, contém as obrigações das partes envolvidas na transferência e os direitos dos titulares dos dados a serem transferidos. Caso o controlador adote as CPCs sugeridas pela autoridade, vincular-se-á a todos os requisitos e as obrigações estipuladas no documento, podendo realizar a transferência dos dados pessoais sem a necessidade de anuência da ANPD ou dos respectivos titulares. CONSIDERAÇÕES FINAIS A Resolução CD/ANPD nº 19 integra os esforços para que o Brasil conte com um sistema robusto de definição, aprovação e fiscalização do fluxo transnacional de dados pessoais, garantindo a efetividade internacional do sistema de proteção brasileiro. Ao regulamentar o tema da transferência internacional de dados, a ANPD se posicionou no cenário internacional, defendendo o sistema de proteção de dados brasileiro. O estabelecimento de regras e procedimentos direcionados à garantia dos direitos dos titulares é fundamental para a eficácia da LGPD. A disponibilização de cláusulas-tipo auxilia os agentes de tratamento diante do cumprimento de seus deveres e justa proteção de direitos dos titulares, ainda que existam diferentes níveis legislações de proteção de dados ao redor do mundo. __________ 1 LIMA, Cíntia Rosa Pereira de. Autoridade Nacional de Proteção de Dados e a efetividade da Lei Geral de Proteção de Dados. São Paulo: Almedina, 2019. 2 FUNDAÇÃO GETULIO VARGAS (FGV). Guia de Proteção De Dados Pessoais: Transferência Internacional. São Paulo: FGV. 2020, p. 15. Disponível aqui. Acesso em: 10 fev. 2022. 3 BRASIL. Portaria nº 11, de 27 de janeiro de 2021. Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2021. Disponível aqui. Acesso em: 25 jan. 2022.          4 AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS (ANPD). Proposta de realização de Tomada de Subsídios para regulamentação de transferência internacional de dados pessoais, nos termos dos arts. 33 a 35 da Lei nº 13.709, de 14 de agosto de 2018. Brasília. 2021. Disponível aqui. Acesso em: 12 jun. 2022. 5 AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS.  Resolução CD/ANPD nº 19, de 23 de agosto de 2024. Brasília. Disponível em: < RESOLUÇÃO CD/ANPD Nº 19, DE 23 DE AGOSTO DE 2024 - RESOLUÇÃO CD/ANPD Nº 19, DE 23 DE AGOSTO DE 2024 - DOU - Imprensa Nacional (in.gov.br)>, acessado em 29 de agosto de 2024. 6 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados (LGPD). Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2018. Disponível aqui. Acesso em: 25 jan. 2022 7 DONEDA, Danilo . [et al.]. Tratado de Proteção de Dados Pessoais. Prefácio. Rio de Janeiro: Forense, 2021. 8 MENDES, Laura Schertel Ferreira. Habeas data e autodeterminação informativa: os dois lados da mesma moeda. Direitos Fundamentais & Justiça, Belo Horizonte, n. 39, jul./dez. 2018, p. 186. 9 MARQUES, Claudia Lima. Diálogo das Fontes: do conflito à coordenação de normas no direito brasileiro. São Paulo: Revista dos Tribunais. 2012, p. 23. 10 Carta de apoio à sanção da Lei de Proteção de Dados do Presidente do Brasilcon, Diógenes Carvalho, e da Ex-Presidente do Brasilcon, Cláudia Lima Marques, RDC 119, p. 517-520. 11 LEONARDI, Marcel. Transfere^ncia Internacional de Dados Pessoais. In: DONEDA, Danilo . [et al.]. Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021, p. 303. 12 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2018. Disponível aqui. Acesso em: 25 jan. 2022. Art. 33. "A transferência internacional de dados pessoais somente é permitida nos seguintes casos: I - para países ou organismos internacionais que proporcionem grau de proteção de dados pessoais adequado ao previsto nesta Lei; II - quando o controlador oferecer e comprovar garantias de cumprimento dos princípios, dos direitos do titular e do regime de proteção de dados previstos nesta Lei, na forma de: a) cláusulas contratuais específicas para determinada transferência; b) cláusulas-padrão contratuais; c) normas corporativas globais; d) selos, certificados e códigos de conduta regularmente emitidos; III - quando a transferência for necessária para a cooperação jurídica internacional entre órgãos públicos de inteligência, de investigação e de persecução, de acordo com os instrumentos de direito internacional; IV - quando a transferência for necessária para a proteção da vida ou da incolumidade física do titular ou de terceiro; V - quando a autoridade nacional autorizar a transferência; VI - quando a transferência resultar em compromisso assumido em acordo de cooperação internacional; VII - quando a transferência for necessária para a execução de política pública ou atribuição legal do serviço público, sendo dada publicidade nos termos do inciso I do caput do art. 23 desta Lei; VIII - quando o titular tiver fornecido o seu consentimento específico e em destaque para a transferência, com informação prévia sobre o caráter internacional da operação, distinguindo claramente esta de outras finalidades; ou IX - quando necessário para atender as hipóteses previstas nos incisos II, V e VI do art. 7º desta Lei." 13 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2018. Disponível aqui. Acesso em: 25 jan. 2022. Art. 34 da Lei Geral de Proteção de Dados. Art. 34. "O nível de proteção de dados do país estrangeiro ou do organismo internacional mencionado no inciso I do caput do art. 33 desta Lei será avaliado pela autoridade nacional, que levará em consideração: I - as normas gerais e setoriais da legislação em vigor no país de destino ou no organismo internacional; II - a natureza dos dados; III - a observância dos princípios gerais de proteção de dados pessoais e direitos dos titulares previstos nesta Lei; IV - a adoção de medidas de segurança previstas em regulamento; V - a existência de garantias judiciais e institucionais para o respeito aos direitos de proteção de dados pessoais; e VI - outras circunstâncias específicas relativas à transferência.". 14 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2018. Disponível aqui. Acesso em: 25 jan. 2022. Art. 35 da Lei Geral de Proteção de Dados. Art. 35. "A definição do conteúdo de cláusulas-padrão contratuais, bem como a verificação de cláusulas contratuais específicas para uma determinada transferência, normas corporativas globais ou selos, certificados e códigos de conduta, a que se refere o inciso II do caput do art. 33 desta Lei, será realizada pela autoridade nacional. § 1º Para a verificação do disposto no caput deste artigo, deverão ser considerados os requisitos, as condições e as garantias mínimas para a transferência que observem os direitos, as garantias e os princípios desta Lei. § 2º Na análise de cláusulas contratuais, de documentos ou de normas corporativas globais submetidas à aprovação da autoridade nacional, poderão ser requeridas informações suplementares ou realizadas diligências de verificação quanto às operações de tratamento, quando necessário. § 3º A autoridade nacional poderá designar organismos de certificação para a realização do previsto no caput deste artigo, que permanecerão sob sua fiscalização nos termos definidos em regulamento. § 4º Os atos realizados por organismo de certificação poderão ser revistos pela autoridade nacional e, caso em desconformidade com esta Lei, submetidos a revisão ou anulados. § 5º As garantias suficientes de observância dos princípios gerais de proteção e dos direitos do titular referidas no caput deste artigo serão também analisadas de acordo com as medidas técnicas e organizacionais adotadas pelo operador, de acordo com o previsto nos §§ 1º e 2º do art. 46 desta Lei. 15 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2018. Disponível aqui. Acesso em: 25 jan. 2022. Art. 36 da Lei Geral de Proteção de Dados. Art. 36. As alterações nas garantias apresentadas como suficientes de observância dos princípios gerais de proteção e dos direitos do titular referidas no inciso II do art. 33 desta Lei deverão ser comunicadas à autoridade nacional.". 16 BOND, Robert. International Transfers of Personal Data - an update. Business Law International. v. 5, n. 3, 2014, p. 424. De acordo com o autor, "'transfer' is not the same as 'transit'. Personal data may pass through country B on the way from country A to country C, but if no substantive processing operation takes place en route, the transfer is to country C.". 17 BOND, Robert. International Transfers of Personal Data - an update. Business Law International. v. 5, n. 3, 2014, p. 424. 18 INFORMATION COMMISSIONER'S OFFICE (ICO). Guide to the General Data Protection Regulation (GDPR). London: Information Commissioner's Office (ICO). 2021, p. 228. Disponível aqui. Acesso em: 3 jul. 2022. 19 CARVALHO, Angelo Gamba Prata de. Transfere^ncia internacional de dados na lei geral de protec¸a~o de dados - Forc¸a normativa e efetividade diante do cena´rio transnacional. In: FRAZA~O, Ana; TEPEDINO, Gustavo; OLIVA, Milena Donato (coord.). A Lei Geral de Protec¸a~o de Dados Pessoais e suas repercusso~es no direito brasileiro. Sa~o Paulo: Revista dos Tribunais. 2019, p. 623. 20 CENTRE FOR INFORMATION POLICY LEADERSHIP (CIPL); CENTRO DE DIREITO, INTERNET E SOCIEDADE DO INSTITUTO BRASILIENSE DE DIREITO PÚBLICO (CEDIS-IDP). O papel da Autoridade Nacional de Proteção de Dados Pessoais (ANPD) conforme a nova Lei Geral de Proteção de Dados Pessoais (LGPD). 2020, p. 7. Disponível aqui. Acesso em: 25 jan. 2022.
A certidão imobiliária é fruto da publicidade inerente aos registros públicos, seja para desencadear a eficacização dos direitos reais erga omnes, seja para garantir certeza e segurança jurídica às transações imobiliárias.1 Justamente por isso, os artigos 16 e 17 da Lei nº 6.015/1973 (Lei de Registros Públicos - LRP), impõem ao registrador a emissão de certidões e de informações quando solicitado, independentemente de motivação. Contudo, após o advento da LGPD, Lei nº 13.709/2018, ganhou força o discurso contra a publicidade registral e notarial de forma indistinta. Assim, tornou-se necessário ressignificar a publicidade registrária, elemento basilar dos direitos reais, e compatibilizá-la com os dispositivos de proteção e tratamento de dados pessoais e da privacidade, posto que, aparentemente, apontam em sentidos opostos, evidenciando a atualidade e a relevância do tema. Em outra ocasião, reforçamos a ideia de que a LGPD não trouxe no rol dos direitos dos titulares de dados previsto no art. 18 da lei o direito ao sigilo ou mitigação da publicidade.2 Muito embora, a proteção à privacidade (inc. I) e à intimidade (inc. IV) sejam alguns dos fundamentos do sistema de proteção de dados pessoais nos termos do art. 2º da LGPD, in verbis: Art. 2º A disciplina da proteção de dados pessoais tem como fundamentos: I - o respeito à privacidade; II - a autodeterminação informativa; III - a liberdade de expressão, de informação, de comunicação e de opinião; IV - a inviolabilidade da intimidade, da honra e da imagem; V - o desenvolvimento econômico e tecnológico e a inovação; VI - a livre iniciativa, a livre concorrência e a defesa do consumidor; e VII - os direitos humanos, o livre desenvolvimento da personalidade, a dignidade e o exercício da cidadania pelas pessoas naturais. Observe-se que tão importante quanto os fundamentos acima destacados, a LGPD traz no inciso V outro, qual seja: "o desenvolvimento econômico e tecnológico e a inovação". Neste sentido, deve-se compreender a importância da certidão imobiliária para o desenvolvimento econômico do país, pois é um instrumento imprescindível para a segurança dos negócios jurídicos imobiliários. Isto porque a inscrição de um título no assento imobiliário, seja em decorrência de ato de registro ou ato de averbação (artigo 167 da LRP), ocorre somente após a devida qualificação registrária, realizada à luz do sistema legal e normativo vigentes, uma vez que os atos desempenhados pelos delegatários no exercício da função fundamentam-se, preponderantemente, no regime jurídico de direito público, no qual vigora o princípio da legalidade estrita. Destaca-se que o princípio da legalidade está diretamente relacionado ao princípio da publicidade registrária, posto que não há como o registro ser público se não for conhecido e não há como ter oponibilidade erga omnes se o ato não estiver em consonância com os preceitos legais e não puder ser comprovado documentalmente.3 Logo, o registro lato sensu de um título gera presunção relativa de veracidade, prevalecendo a favor ou contra quem por ele for atingido, o que faz com que o efeito em face da coletividade decorra da publicidade da inscrição.4 As certidões, por sua vez, instrumentalizadas em papel de segurança ou de forma eletrônica, podem ser expedidas em inteiro teor (transcrição integral, ipsis litteris da matrícula); em breve relatório (informações essenciais e atuais do imóvel e dos titulares); por quesitos (respostas às indagações formuladas pela parte, embora se imponha a indicação das alterações posteriores ao ato cuja certidão é emitida, independentemente do pedido); ou ainda, expedidas em forma de certidão da situação jurídica atualizada do imóvel, nos termos do artigo 19 da LRP, com nova redação dada pela lei 14.382/2022. Importante consignar a existência da certidão eletrônica, em qualquer destas modalidades, e pode ser solicitada por intermédio do SERP (Registro Eletrônico dos Registros Públicos) e materializada por qualquer registrador, mediante o uso de assinatura avançada ou qualificada, assim como pode ser visualizada eletronicamente e impressa pelo próprio usuário, conforme artigo 17 da LRP, tratando-se de grande facilitador para propagação da publicidade dos assentos imobiliários.   Diante deste complexo contexto, um debate crucial é se definir se a emissão de certidão seria ou não compartilhamento de dados, o que nos parece que não, na medida em que se trata de uma atividade fim do Registro de Imóveis em virtude do que determina a lei e as normas regulamentadoras.5 Então qual seria o impacto da Lei Geral de Proteção de Dados às atividades de notas e de registros, uma vez que é aplicável por expressa determinação dos §§ 4ª e 5º do art. 23 da LGPD. Nesta coluna, foi objeto de análise a regulamentação da aplicação da LGPD às serventias extrajudiciais em âmbito federal, pois o Provimento n. 134/2022 do CNJ, já estabeleceu regras importantes sobre controlador, a necessidade de indicação do encarregado de dados, a exigência de políticas de boas práticas e governança, o mapeamento das atividades de tratamento e a definição de procedimentos para o cumprimento de medidas técnicas e administrativas, além de outros, demandando análise cuidadosa de seu escopo de incidência.6 Este provimento foi incorporado no Código Nacional de Normas do Foro Extrajudicial da Corregedoria Nacional de Justiça do Conselho Nacional de Justiça (Provimento nº 149/2023), notadamente quanto à identificação do requerente e a indicação de finalidade para emissão de certidão de registro lato sensu e prestação de informação (arts. 123 a 128). Na realidade, o citado artigo contém conceito aberto, qual seja, "finalidade do pedido", que possui conteúdo e valoração eminentemente subjetivos, de modo com que mais parece uma tentativa de adequação formal da privacidade e proteção de dados à atividade registrária do que, propriamente, uma via concreta de efetivação de tais direitos. Isso devido ao fato de que não se mostra razoável atribuir ao registrador emitir juízo de valor quanto à finalidade indicada pelo requerente: uma porque o conceito aberto de finalidade permite a pluralidade de interpretação entre as serventias e impede a adequada prestação do serviço público, em prejuízo ao usuário; outra porque acarreta mitigação da publicidade dos atos registrários, comprometendo toda a sistemática imobiliária, que se fundamenta no efeito erga omnes do registro. Por outro lado, a submissão de tal pedido ao Juízo competente mostra-se em dissonância com a exegese do artigo 18 da lei 6.015/73, do artigo 10, inciso IV e do artigo 13, inciso III da lei 8.935/947 e, ainda, pode causar potencial problema de ordem pública, uma vez que a grande demanda de pedidos no país ensejaria maior burocratização do serviço, tornando-o menos eficiente e célere, o que, nitidamente, não é o intuito.8 Nesse cenário, imputar ao requerente da certidão imobiliária a indicação da finalidade do pedido aparenta descabido, já que não tem o condão de evitar eventuais danos ao titular do direito real, porque após a emissão de tais documentos inexiste qualquer controle daquilo que será feito com os dados fornecidos. Por fim, há de se pontuar que a ética é, acima de tudo, produto cultural e não jurídico, de modo com que aquilo que será feito com os dados pessoais contidos em um assento imobiliário transcende o campo do direito, que não deve ser utilizado como ferramenta para mitigação da ampla publicidade inerente ao registro imobiliário, sob pena de ao se valer de normas protetivas de tratamento e de dados pessoais, acabar por comprometer a confiabilidade e a transparência do sistema registrário, mundialmente conhecido por sua segurança e eficácia. __________ 1 KÜMPEL, Vitor Frederico. Sistema de Transmissão da Propriedade Imobiliária sob a Ótica do Registro. São Paulo: YK, 2021. 2 LIMA, Cintia Rosa Pereira de; LIMA,  Marilia Ostini Ayello Alves de. Proteção de dados pessoais e publicidade registral: uma longa caminhada de um tema inesgotável. In: Migalhas de IA e Proteção de Dados. Disponível aqui, acesso em 22 de agosto de 2024. 3 ALMADA, Ana Paula P. L. Registro de imóveis. In: GENTIL, Alberto (Coord.). Registros públicos. 2. ed. Rio de Janeiro: Forense, 2021.p.363. 4 CARVALHO, Afranio de. Registro de imóveis. 3. ed. Rio de Janeiro: Forense, 1982, p. 163 e p. 194. Para o referido autor, o princípio da inscrição configura a versão contemporânea da tradição do direito romano, já que o direito real imobiliário decorre de dois elementos diferentes: o título, que consubstancia a vontade das partes e a inscrição, que transforma o direito obrigacional em direito real e possui efeito perante toda a coletividade. Dessa forma, a inscrição tem o mesmo papel da tradição do direito romano. 5 LIMA, Cintia Rosa Pereira de; LIMA,  Marilia Ostini Ayello Alves de. Proteção de dados pessoais e publicidade registral: uma longa caminhada de um tema inesgotável. In: Migalhas de IA e Proteção de Dados. Disponível aqui, acesso em 22 de agosto de 2024. 6 FALEIROS JÚNIOR, José Luiz de Moura; PERROTTA,  Maria Gabriela Venturoti. O provimento 134/22 do CNJ e a aplicação da LGPD aos serviços notariais e de registro. In: Migalhas de IA e Proteção de Dados. Disponível aqui, acesso em 22 de agosto de 2024. 7 KÜMPEL, Vitor Frederico. Tratado Notarial e Registral.São Paulo: YK Editora, 1ª Ed., 2020, vol.5, tomo I, p.550. 8 CHEZZI, Bernardo. Aplicação da LGPD ao registro de imóveis. In: GALHARDO, Flaviano;  PARO, João Pedro; NALINI, José Renato; BRANDELLI, Leonardo (Coords). Direito registral e novas tecnologias. Rio de Janeiro: Forense, 2021, p. 140. 
sexta-feira, 16 de agosto de 2024

A automação de documentos no Direito

A automação de documentos na área jurídica refere-se ao uso de tecnologia para criar, gerenciar e armazenar documentos legais de forma eficiente e precisa. Esta tecnologia utiliza softwares avançados e IA para preencher automaticamente formulários padrão com informações de casos específicos, reduzir o tempo gasto em tarefas repetitivas e mitigar erros humanos.1 Um dos objetivos é usar partes de textos entre os diversos documentos legais. Digamos, um "copia e cola" inteligentes.Além destas tarefas, a automação permite a padronização dos formatos de documentos, facilitando a busca e recuperação, o que é essencial em ambientes jurídicos dinâmicos e de alto volume de trabalho. Hipoteticamente, como em tudo na computação, com a implementação da automação, escritórios de advocacia e departamentos jurídicos podem dedicar mais tempo a tarefas estratégicas e ao atendimento aos clientes, melhorando a eficiência operacional e a qualidade dos serviços prestados.2 Contudo, a incorporação dessa tecnologia exige atenção à conformidade com regulamentos de proteção de dados e à manutenção da segurança e privacidade das informações, um aspecto crucial no cenário jurídico atual.3 Eficiência e Produtividade no Setor Jurídico A automação de documentos jurídicos tem se tornado uma necessidade crucial para aumentar a eficiência e produtividade em escritórios de advocacia e departamentos jurídicos no Brasil. Isso ocorre devido à capacidade das tecnologias de automação de melhorar significativamente a forma como os profissionais gerenciam e produzem documentos legais. Um dos principais benefícios da automação é a redução do tempo gasto em tarefas repetitivas. Ferramentas de automação permitem a criação de documentos padronizados a partir de modelos que podem ser preenchidos automaticamente com informações específicas de cada caso. Segundo Susskind3, a automação pode cortar o tempo de elaboração de documentos em até 80%, liberando tempo para os advogados se concentrarem em atividades mais estratégicas. Além disso, a automação melhora a precisão e consistência dos documentos, minimizando os erros humanos que são comuns em tarefas manuais de elaboração de documentos. Estudos, como os de Markoff4, mostram que erros em documentos jurídicos manuais podem levar a complicações legais e financeiras, enquanto a automação ajuda a garantir que todos os detalhes críticos sejam processados corretamente. No caso específico do Brasil, a carga de trabalho nos escritórios é geralmente elevada devido ao grande volume de litígios. Segundo Oliveira e Cunha5, a adoção de soluções tecnológicas no setor jurídico ajuda a aliviar essa carga, permitindo que os profissionais gerenciem casos de maneira mais eficiente e com menos estresse. Além das melhorias internas nos escritórios, a automação também tem um impacto positivo sobre os clientes. A utilização de tecnologias para agilizar processos pode resultar em custos mais baixos para os clientes, visto que as horas de trabalho advocatício necessárias são reduzidas.6 Além de tudo, a adequação às tecnologias de automação pode proporcionar uma vantagem competitiva significativa. Escritórios que adotam tais tecnologias frequentemente destacam-se no mercado por sua eficiência e capacidade de entregar resultados com maior rapidez e precisão.7 Impacto na Prática Jurídica e no Acesso à Justiça Uma das mudanças mais notáveis da automação de documentos é a democratização do acesso aos serviços jurídicos. Automação permite que pequenas empresas de advocacia e advogados autônomos ofereçam serviços de alta qualidade a preços mais acessíveis, ou seja, mais pessoas podem ter acesso a serviços jurídicos, ampliando a cobertura do sistema judicial.8 A automação também está influenciando a educação e formação jurídica. Com o aumento do uso dessas tecnologias, há uma necessidade crescente de que novos profissionais do direito sejam treinados em habilidades tecnológicas além do conhecimento jurídico tradicional. Muitas escolas de direito estão começando a incorporar cursos sobre tecnologia e automação em seus currículos para preparar seus alunos para essas mudanças.9 Outro aspecto relevante é a utilização de tecnologia para a resolução de disputas online (ODR - Online Dispute Resolution), que tem funcionado como um meio eficaz de resolver conflitos sem a necessidade de procedimentos judiciais complexos. Plataformas automatizadas de resolução de disputas podem auxiliar na redução da carga dos tribunais, tornando a justiça mais ágil e acessível, especialmente em áreas rurais ou menos desenvolvidas. Desafios Éticos e Regulatórios No entanto, a automação de documentos jurídicos não traz apenas avanços tecnológicos, mas também uma série de desafios éticos e regulatórios que precisam ser abordados para garantir sua implementação segura e eficaz no Brasil. Um dos principais desafios é a segurança e privacidade dos dados. Com a crescente digitalização de documentos e o uso de inteligência artificial, existe uma preocupação significativa quanto à proteção de informações confidenciais. A LGPD, estabelece diretrizes rigorosas para o tratamento de dados pessoais. Portanto, há a necessidade de garantir que as ferramentas de automação de documentos estejam em total conformidade com a LGPD, protegendo os dados pessoais dos clientes. Outro ponto crítico é a transparência dos algoritmos usados em ferramentas de automação. A falta de clareza sobre como essas tecnologias tomam decisões, principalmente aquelas que usam IA, pode levar a questões de responsabilidade e confiabilidade. A comunidade de Direito já trabalha para criar diretrizes claras para a explicabilidade dos algoritmos no campo jurídico, assegurando que os advogados entendam e possam confiar nas decisões assistidas por inteligência artificial.10 Adicionalmente, há preocupações sobre o impacto da automação na ética profissional e no emprego. A automação pode potencialmente reduzir a demanda por trabalho humano em tarefas rotineiras, levantando discussões sobre a necessidade de requalificação profissional. Embora a automação possa substituir algumas atividades, ela também pode criar novas oportunidades para advogados que se posicionam como especialistas em tecnologia legal.11 A adoção da automação de documentos na área do direito representa uma oportunidade transformadora para escritórios de advocacia e departamentos jurídicos em todo o Brasil. Ao incorporar esta tecnologia, os profissionais do direito não apenas têm a chance de aumantar a eficiência e precisão de suas operações, mas também podem dedicar mais tempo ao desenvolvimento de estratégias jurídicas inovadoras e ao atendimento personalizado de seus clientes. Além de reduzir custos operacionais e minimizar erros humanos, a automação permite que os serviços jurídicos sejam mais acessíveis, tornando a justiça mais equitativa e inclusiva. À medida que o setor jurídico se adapta às demandas do século XXI, aqueles que abraçam a automação estarão na vanguarda, oferecendo soluções mais rápidas, precisas e eficazes. Portanto, investir em automação não é apenas uma decisão estratégica inteligente, mas também um passo essencial rumo a um futuro jurídico mais moderno e eficiente. _________ 1 Casey, A. J., & Niblett, A. (2019). The Technology of the Law: The Automation of Legal Technology. Journal of Law and Technology. 2 Ashley, K. D. (2017). Artificial Intelligence and Legal Analytics: New Tools for Law Practice in the Digital Age. Cambridge University Press. 3 Susskind, R. (2017). Tomorrow's Lawyers: An Introduction to Your Future. Oxford University Press. 4 Markoff, J. (2020). Machines of Loving Grace: The Quest for Common Ground Between Humans and Robots. HarperCollins. 5 OLIVEIRA, Fabiana Luci de; CUNHA, Luciana Gross. Os indicadores sobre o Judiciário brasileiro: limitações, desafios eo uso da tecnologia. Revista direito GV, v. 16, n. 1, p. e1948, 2020. Disponível aqui. 6 FARIAS, Pedro Lima Gondim de. A advocacia na era digital: uma análise sobre possíveis impactos práticos e jurídicos das novas tecnologias na dinâmica da advocacia privada. 2020. UFRN. Disponível aqui. 7 TEIXEIRA, Fernando Gil. O Direito enquanto recurso indispensável às empresas e potenciador de vantagem competitiva. 2020. Dissertação de Mestrado. Universidade da Beira Interior (Portugal). 8 BRESCIA, Raymond H. et al. Embracing disruption: How technological change in the delivery of legal services can improve access to justice. Alb. L. Rev., v. 78, p. 553, 2014. 9 FORNASIER, Mateus de Oliveira. Legal education in the 21st century and the artificial intelligence. Revista Opinião Jurídica, v. 19, n. 31, p. 1-32, 2021. Disponível aqui. 10 FERRARI, Isabela. Accountability de Algoritmos: a falácia do acesso ao código e caminhos para uma explicabilidade efetiva. Inteligência Artificial: 3º Grupo de Pesquisa do ITS, ITS-Instituto de Tecnologia e Sociedade do Rio, 2018. 11 FORNASIER, Mateus de Oliveira. The impact of the introduction of artificial intelligence in advocacy: skills and professional ethics necessary for the future lawyer. Revista da Faculdade de Direito UFPR, Curitiba, v. 66, n. 2, p. 69-94, maio/ago. 2021. ISSN 2236-7284. Disponível aqui.
sexta-feira, 9 de agosto de 2024

Deep fake e propaganda eleitoral 2024

Atualmente, com o avanço frenético das plataformas tecnológicas de Inteligência Artificial, há, também, como já trabalhado em outras colunas neste Migalhas, preocupações nas discussões acerca dos impactos negativos e positivos consequentes do descompasso entre o desenvolvimento de IA e a dificuldade de regulação. Dentre os impactos negativos, as deep fakes têm se tornado alvo de análises e críticas, visto que são conteúdos de imagem e voz altamente realistas criados a partir de comandos de IA generativa, de modo a juntar inúmeras informações das redes neurais profundas. Desse modo, as deep fakes são ferramentas extremamente eficazes para as campanhas de desinformação em diversos âmbitos, principalmente para as eleições municipais que se avizinham, afetando o direito à informação aos sujeitos afetados, o princípio da transparência e a lisura da propaganda eleitoral. Já há inúmeros exemplos de deep fakes que vêm sendo utilizadas em larga escala, mesmo que haja proibição pela resolução 23.610/2019, com seu novo texto produzido pelo TSE na resolução 23.732/2024, quanto ao uso de deep fakes nas propagandas eleitorais e obrigação de aviso de utilização de IA quando esta for utilizada. Além disso, o atual Projeto de Lei 2.338/2023 tenta apresentar um arcabouço legislativo para regulamentar a IA, entretanto não apresenta formas de proteção efetiva dos usuários, não adere ao princípio de vulnerabilidade dos usuários e apresenta vaga definição das responsabilidades em termos de transparência. Vejam, a preocupação quanto a má utilização da tecnologia com fins de campanha eleitoral são mais do que válidas, o histórico não é dos melhores. De acordo com o calendário eleitoral de 2024, a propaganda eleitoral se inicia em 16 de agosto e se define, basicamente, com a divulgação de propostas dos candidatos e candidatas, seus currículos com intuito de captação de votos e convencimento dos eleitores. Com a utilização massiva das novas tecnologias com fins eleitorais, principalmente a partir de 2018 no Brasil, os números de propaganda eleitoral contendo desinformação cresceram vertiginosamente. Como exemplo, nas eleições de 2022, o TSE aplicou mais de R$ 940 mil em multas por uso de desinformação na internet, mesmo com toda a campanha realizada pelo Tribunal, com os canais de comunicação criados para denúncias, o momento adequado para divulgação de propostas é usado para divulgação de desinformação. O uso das deep fakes pelo TSE ocorreram devido ao amplo acesso a ferramentas como o ChatGPT, da OpenAI e o Gemini, da Google, por exemplo. É imprescindível ressaltar que a utilização de deep fakes em contextos eleitorais não é recente, desde 2018, como dissemos acima, este tipo de conteúdo pode ser constatado e, em sua grande maioria, usado com fins de sátira. Entretanto, não é permitido utilizar em campanhas eleitorais conteúdo fabricado ou manipulado que tenha como fim a desinformação, seja descontextualizando a realidade ou até mesmo criando fatos não verdadeiros. A nosso ver, essa é uma deliberação correta do TSE, pois deep fakes estão cada vez mais verossímeis e isso pode realmente causar prejuízos significativos ao equilíbrio das eleições ou à integridade de todo o processo eleitoral. Dessa forma, candidatos e candidatas, partidos políticos e/ou a federação partidária que se envolver na produção e disseminação desse tipo de conteúdo podem enfrentar a cassação do registro da candidatura ou do mandato, comprometendo assim a legitimidade da eleição. Além disso, tal conduta configura crime eleitoral, conforme previsto no art. 323 do Código Eleitoral (Lei n° 4737/65), resultando em pena de detenção que pode variar de 2 meses a 1 ano, além do pagamento de multa. A imposição dessas sanções é essencial para garantir um processo eleitoral justo e transparente, protegendo os eleitores de manipulações tecnológicas maliciosas. Todavia, há outra questão a ser considerada1: a padronização das decisões judiciais envolvendo deep fakes. Atualmente, não há uma legislação específica que delineie as condutas gerais para orientar essas decisões, como princípios e diretrizes, o que pode resultar em uma falta de uniformidade nos julgamentos. Além disso, há uma necessidade crescente de conhecimentos especializados em Techlaw por parte do Judiciário, o que gera outro desafio significativo. A natureza dinâmica da tecnologia, que se altera rapidamente à medida que avança, significa que as decisões judiciais podem não acompanhar a melhor interpretação jurídica. Essa lacuna pode levar a inconsistências e a uma aplicação inadequada da justiça em casos envolvendo deep fakes, prejudicando a proteção dos direitos dos cidadãos e a integridade do processo eleitoral. Como exemplo, poderíamos citar: Tábata Amaral (PSB) v. Ricardo Nunes (MDB) ocorrido no início de 2024, em contexto de pré candidatura à prefeitura da cidade de São Paulo. No vídeo, o rosto do prefeito Nunes aparece no corpo de Ryan Gosling atuando no filme Barbie com o trocadilho "Quem", ao invés de "Ken", sugerindo que o atual prefeito é desconhecido. O caso foi levado por Nunes ao TRE/SP e foi decidido que o vídeo não possui conteúdo vexatório, portanto não há como inferir que há ofensa à honra do prefeito e não há qualquer menção às eleições de 2024, portanto, não se configuraria abuso ou propaganda eleitoral antecipada. Pergunta: Como a Resolução nº 23.732/2024 estabelece quais conteúdos podem gerar ofensas à honra ou configuração de abuso de poder político? Não seria todo ou qualquer conteúdo manipulado ou criado que se incorreria em sanção? Outro caso: em São Pedro da Aldeia (RJ), um administrador de um perfil no Instagram publicou vários áudios simulando a voz do prefeito em uma conversa com teor sexual com seu assessor de gabinete. O caso foi judicializado e o perfil não foi excluído, apenas a liminar com pedido de remoção do conteúdo foi deferida, contudo, o perfil continuou publicando outros áudios manipulados (deep fakes) e, então, ocorreu a decisão para exclusão do perfil e a suspensão do acesso àquela conta no Instagram por 180 dias. Pergunta: quando e quais são os limites entre liberdade de expressão e censura em casos de deep fakes? Mais um caso: em Santa Rita (PB), foi publicado um vídeo criado a partir de deep fake, simulando a voz do atual do prefeito e pré candidato a reeleição Nilvan Ferreira (Republicanos), em que ele tece muitos elogios a seu adversário de pleito, o pré candidato Jackson Alvino (PSD), mas até o momento não encontramos a decisão do TRE/PB sobre o caso. Pergunta: E se a deep fake for produzida por um(a) eleitor(a), não filiado a nenhum partido político ou militante político partidário, como será aplicada a regra? As inteligências artificiais generativas são complexas e transparência, explicabilidade e opacidade são conceitos inerentes a essas tecnologias, como já citamos aqui neste Migalhas2, por isso, a educação dos operadores do direito é imprescindível para a análise envolvendo as novas tecnologias. Os exemplos citados ilustram claramente os desafios complexos que o uso de deep fakes apresenta ao sistema eleitoral brasileiro. A falta de padronização nas decisões judiciais, a necessidade de conhecimentos especializados em Techlaw e a rápida evolução da tecnologia são fatores que complicam ainda mais a situação. A Resolução nº 23.732/2024 do TSE é um passo importante, mas é evidente que é necessário um esforço contínuo para adaptar e fortalecer o arcabouço legal que rege o uso de tecnologias emergentes nas eleições. É crucial que as autoridades eleitorais, legisladores e a sociedade civil trabalhem juntos para garantir que a integridade do processo eleitoral seja protegida. A criação de mecanismos eficientes para detecção e enfrentamento de deep fakes, combinada com uma educação ampla sobre o tema para operadores do direito e eleitores, é essencial. Além disso, a implementação de canais de denúncia, como o número de telefone 1491, criado pelo TSE, representa uma iniciativa importante para envolver os cidadãos na identificação e reporte de conteúdos desinformativos. A interseção entre liberdade de expressão e a necessidade de proteger a honra e a integridade dos candidatos deve ser cuidadosamente equilibrada para evitar tanto a censura quanto o abuso de direito. No entanto, a prioridade deve ser a manutenção de um ambiente eleitoral justo e transparente. À medida que avançamos para as eleições municipais de 2024, a vigilância e a ação proativa serão fundamentais para garantir que a verdade nas campanhas eleitorais prevaleça e que os eleitores possam tomar decisões informadas, livres de manipulações tecnológicas manipuladas. __________ 1 Disponível aqui. 2 Disponível aqui.
Ataques cibernéticos são os acessos não autorizados ao sistema de informação para a prática de condutas ilícitas, tais como, roubo de identidade, transações eletrônicas indevidas, sequestros, frutos e etc. Um estudo de 2010 mostrou que um hacker pode se infiltrar em apenas uma das muitas unidades de controle eletrônico de um veículo para manipular o sistema crítico de segurança e controlar as funções, como desativar os freios, travar seletivamente as rodas e parar o motor, tudo isso usando apenas o Bluetooth e conexões celulares existentes.1 Estes ataques acontecem comumente diante de sistemas de compartilhamento de informações, ou seja, o compartilhamento de informações cibernéticas frequentemente usado para promover a disseminação da ciberinteligência seja entre os entes privados e entre estes e os entes públicos.2 Em virtude desta ameaça concreta, a regulamentação sobre carros autônomos deve enfrentar o tema exigindo que o fabricante ateste que o sistema utilizado no carro autônomo possui, por exemplo, recursos de auto diagnóstico, capazes de detectar e responder a ataques cibernéticos, intrusões não autorizadas, bem como um sistema de alerta ao operador do sistema operacional e ao motorista sobre estes ataques. Em outras palavras, o veículo deve alertar o operador de um ataque cibernético e permitir que os comandos do operador prevaleçam sobre os comandos gerados pelo hacker.3 Neste sentido, já ficou demonstrada a viabilidade destes ataques cibernéticos, com a possibilidade de falsificação de GPS, interferência e visão ofuscante, dentre outros, isto porque o sistema usado em carros autônomos funciona a partir de diversas conexões entre os sensores e outros sistemas como o Lidar da Google. Este contexto foi analisado por Jonathan Petit e Steven E. Shladover.4 É evidente que o sistema de automação terá acesso às informações pessoais do dono do veículo, como os locais, o horário, a rotina de sua vida cotidiana, se ele ou ela transporta outras pessoas no veículo, dentre outras. Portanto, o fabricante deve observar as regras legais para o tratamento de dados pessoais, no Brasil, reguladas pela LGPD e outras leis esparsas. Um dos pontos cruciais é a obtenção do consentimento, que é uma das bases de tratamento de dados pessoais conforme o art. 7o, inc. I da LGPD, como já tivemos oportunidade de analisar nesta coluna.5 Assim, ao adquirir um carro autônomo, o proprietário tem o direito de tomar ciência de maneira efetiva sobre a política de proteção de dados e privacidade, com a qual deverá concordar para poder utilizar as funcionalidades do sistema autônomo.6 Mas as bases de tratamento de dados não se resumem ao consentimento, o fabricante poderá realizar a coleta, o armazenamento, e todas as demais atividades descritas de maneira exemplificativa no art. 5o, inc. X da LGPD, sob o fundamento de uma ou mais bases legais para o tratamento de dados elencadas no art. 7o da LGPD, quais sejam: - cumprimento de obrigação legal ou regulatória (inc. II); - quando necessário para a execução do contrato (inc. V); - para o exercício regular de direito em processo judicial, administrativo ou arbitral (inc. VI); - para a proteção da vida ou da incolumidade física do titular ou de terceiro (inc. VII); ou - para atender aos interesses legítimos do fabricante (inc. IX). Por isso, as empresas devem ser claras sobre as medidas contra os ataques cibernéticos em suas políticas de privacidade e de proteção de dados, sob pena de responder por prática comercial abusiva como no caso conhecido como Federal Trade Commission - FTC v. Wyndham Worldwide Corp.7 Enfim, estes ataques cibernéticos devem ser combatidos pelas empresas de maneira eficiente, podendo ser um vício do produto que deve ser analisado com cautela, estando o responsável legal obrigado às consequências legais. Outro ponto sensível diz respeito aos limites éticos na programação dos carros autônomos, ou seja, escolhas diante de circunstâncias adversas como uma possível colisão do veículo. Sobre estes problemas e outras importantes questões envolvendo o desenvolvimento, testes e uso dos carros autônomos conferir a obra "Sistema de Responsabilidade Civil para Carros Autônomos", da Editora Foco. __________ 1 MARKOFF, John. Researchers Show How a Car's Electronics Can Be Taken Over Remotely. In: New York Times (09 de março de 2011). Disponível aqui, acessado em 20 de março de 2020. 2 NOLAN, Andrew. Cybersecurity and Information Sharing: Legal Challenges and Solutions. In: Congressional Research Service, de 13 de março de 2015. Disponível aqui, acessado em 10 de março de 2020. 3 CRANE, Daniel A.; LOGUE, Kyle D.; PILZ, Bryce C. A Survey of Legal Issues Arising From The Deployment of Autonomous and Connected Vehicles. In: Michigan Telecommunications and Technology Law Review, vol. 23, pp.  191 - 320 (2017). Disponível aqui, acessado em 10 de março de 2024. p. 222. 4 PETIT, Jonathan; SHLADOVER, Steven. Potential Cyberattacks on Automated Vehicles. In: IEEE Transactions on Intelligent Transportation Systems, vol. 16, (2015), pp. 546 - 557. Disponível aqui, acessado em 20 de março de 2024. P. 06: "An autonomous automated vehicle can perceive its environment using multiple sensors. Recent implementations use different combinations of components: ranging sensors (lidar, radar), GPS, and map for Stanford autonomous automated vehicle; stereo camera and laser for Oxford RobotCar; stereo cameras, 3-D lidar, radar, and GPS for Annie WAY's autonomous automated vehicle. However, future autonomous automated vehicles may integrate more components, and thus, we consider the following attack surfaces." 5 Sobre os termos e condições de uso, cf. DE LIMA, Cíntia Rosa Pereira. Políticas de proteção de dados e privacidade e o mito do consentimento. In: Migalhas de IA e Proteção de Dados. Disponível aqui, acessado em 31 de julho de 2024. 6 LIMA, Cíntia Rosa Pereira de. Sistema de Responsabilidade Civil para Carros Autônomos. Indaiatuba (SP): Foco, 2023. 7 Wyndham Worldwide Corp., 799 F.3d 236, 241 (3d Cir. 2015).
Introdução Os smart contracts ou "contratos inteligentes" foram idealizados por Nick Szabo1 em trabalhos apresentados na década de 1990, nos quais o autor defendia que a revolução tecnológica afetaria diversos institutos da sociedade, dentre eles a o campo negocial e do direito contratual, aumentando o número de técnicas utilizadas nos contratos tradicionais - da "era do papel" até sua eventual integração em smart contracts. Um dos principais objetivos dos smart contracts é minimizar os riscos de descumprimento contratual, acidental ou intencional, além de diminuir a necessidade de terceiros intermediários, tais como bancos, advogados, contadores, corretores etc., o que representa economia importante em custos de transação, bem como de cobrança judicial ou extrajudicial. 1 Os smart contracts Smart contracts podem ser definidos como contratos realizados por meio de um sistema computadorizado cuja formação e/ou execução ocorre de forma automatizada, sem intermediação de terceiros, quando preenchidos os requisitos preestabelecidos nos protocolos (algoritmos) do sistema2-3, assim, regido pelo princípio do code is law (código é a lei) na linguagem da programação. Szabo compara o instituto com as máquinas de venda automáticas (vending machines), cujo mecanismo funcionaria como portador do produtor e qualquer pessoa que realiza o pagamento conforme sinalizado recebe o produto de forma automatizada. Observe-se que a máquina que contém os produtos funciona como proteção contra terceiros, a fim de diminuir os riscos de descumprimento do contrato e, em certa medida, contra furtos. Considerando a arquitetura proposta, Eliza Mik4 destaca que a analogia dos smart contracts com as máquinas de venda automática levam à falsa suposição que a automação da transação, com a entrega do produto em resposta do pagamento, ou de certos aspectos do contrato transforma o mecanismo em um contrato inteligente ou torna a própria negociação smart. O que não é verdade. O funcionamento das vending machines inspiraram o ideal dos denominados contratos inteligentes, mas não se resume à automação. O que tornou "inteligente" um contrato para que possa ser caracterizado como smart contract foi a criação da tecnologia blockchain, em 2008, por pessoa ou grupo de pessoas autodominadas Satoshi Nakamoto,5 juntamente com a idealização da criptomoeda (moeda digital) bitcoin. Isto porque essa tecnologia possibilita que todos os seus integrantes verifiquem as cláusulas do contrato, o cumprimento das obrigações e o adimplemento ou inadimplemento contratual, com a execução automática na forma previamente colocada no algoritmo. O blockchain utiliza uma tecnologia descentralizada (DLTs, distributed ledgers technologies) que, por sua vez, pode ser definido como um livro-razão (ledger), ou ainda, um banco de dados potencialmente global que pode armazenar virtualmente qualquer tipo de informação, transações financeiras, registros imobiliários, votos, contratos, entre outras. A segurança dos dados é garantida pela criptografia dos dados por meio da tecnologia hash e do "carimbo de data-hora (timestamp)"6 contendo uma referência com o bloco anterior, evitando fraudes e ataques ao blockchain. Em termos simples o blockchain é um livro-razão criptografado, descentralizado e validado por pares que fornece publicidade, cronológica e com registro permanente das transações anteriores, o que a torna uma base de dados segura e incorruptível que permite a realização de transações entre pessoas desconhecidas, sem necessidade de confiança entre os envolvidos (trustless transactions), consequentemente sem a necessidade intermediários garantindo seus riscos. Inicialmente, a Bitcoin blockchain era estruturada para operar transações descentralizadas da criptomoeda. Somente em 2014, com a criação da Ethereum, foi adicionado ao blockchain outras funcionalidades para serem executadas de forma decentralizada na rede, função denominada de smart contracts, a qual permite a interação tanto com humanos quanto com outros smart contracts no mesmo blockchain, além de poder interagir com o mundo físico por meio de Oracles (oráculos). Nesse sentido, conforme ressalta Stephanie Trindade Cardoso, na evolução computacional tecnológica, os smart contracts possuem diversas finalidades no blockchain, desde a criação de tokens, criação de sistemas de votação eletrônicas até mesmo mecanismos de micropagamentos, não correspondendo necessariamente a contrato em sua concepção jurídica. Para que um smart contract possa ser compreendido no sentido jurídico, o programa deverá transcrever total ou parcialmente os termos de um contrato. 2 Natureza jurídica dos smart contracts Vale lembrar a definição técnico-jurídica de contratos, como espécie de negócio jurídico bilateral, pois envolve a manifestação de vontade de, no mínimo, duas pessoas. Portanto, Caio Mário da Silva Pereira7 reforça que "o contrato é um acordo de vontades, na conformidade da lei, e com a finalidade de adquirir, resguardar, transferir, conservar, modificar ou extinguir direitos". Contudo, os smart contracts correspondem a programas de computador, inseridos em um blockchain ou em tecnologia descentralizada similar, e não necessariamente se encaixam na definição acima transcrita de contratos propriamente ditos. É bem verdade que poderão conter conteúdo contratual transcrito total ou parcialmente em seu programa. Portanto, a primeira dificuldade é definir a natureza jurídica dos denominados smart contracts. Os contratos eletrônicos são gêneros que pode se ramificar em contratos informáticos, quando o objeto for um bem informático; ou contratos telemáticos, quando a formação dos contratos envolve o uso de sistemas telemáticos, como e-mail, whatsapp e etc.8 Cabe destacar, ainda, que o sistema jurídico nacional não inviabiliza a contratação eletrônica, pois, adotou como regra geral no art. 107 do Código Civil, o princípio da liberalidade de formas. O que difere os smart contracts dos demais contratos eletrônicos, não é sua autoexecutoriedade, que pode ser programada em outras formas eletrônicas de contrato, mas na natureza descentralizada do vínculo que se pretende estabelecer entre as partes. É desse aspecto que decorre a autoexecutoriedade do smart contract porque não existindo intermediários nas redes, os programas (smart contracts) com seus códigos inseridos na rede, rodarão de forma automatizada. O mesmo pode ser extraído da definição proposta pela Subcomissão de Direito Digital9 na discussão da reforma do Código Civil de 2002: São considerados contratos inteligentes (smart contracts) aqueles nos quais alguma ou todas as obrigações contratuais são definidas e/ou executadas automaticamente por meio de um programa de computador, utilizando uma sequência de registros eletrônicos de dados e garantindo a integridade e a precisão de sua ordenação cronológica. Da definição apresentada se extrai o reconhecimento da natureza jurídica de forma (ou instrumento) dos smart contracts, cujo contrato ou parte dele será convertido/traduzido de linguagem natural (tradicional) para linguagem de código, tendo sido utilizada pela doutrina a metodologia dos Ricardian contracts, desenvolvida por Ian Grigg10 nos anos 1990, com o uso de templates, inserindo o programa na tecnologia descentralizada a ser utilizada. 3 Aspectos da relação jurídica contratual nos smart contracts É inegável a aplicabilidade dos smart contracts no âmbito contratual, podendo o programa conter partes ou a totalidade de um contrato, típico ou atípico, desde que havendo a alteridade própria dos contratos, observados os requisitos mencionados no art. 104 do Código Civil, partes capazes e objeto lícito, possível e determinado ou determinável. Quanto à forma, em regra sendo livre, é possível que seja celebrado um contrato por meio eletrônico, desde que não se exija forma específica como venda e compra de imóveis acima de 30 salários mínimos que deve ser feita por escritura pública nos termos do art. 108 do Código Civil. Os smart legal contracts, inseridos no blockchain ou em tecnologia descentralizada similar, pela sua própria arquitetura (enforcement, observability, verifiability e privity) atende ao princípio da relatividade dos efeitos do contrato, produzindo efeito entre as partes, impedindo a intervenção de terceiros externos ao contrato (função externa do princípio da função social do contrato). A tecnologia descentralizada na qual se operam os smart legal contracts lhe possibilitam a característica de imutabilidade e intangibilidade, correlato ao princípio do pacta sunt servanda, sendo a autoexecutoriedade (self-enforcement) elemento útil para a gestão de risco contratual, como apontam Gustavo Tepedino e Rodrigo da Guia Silva, por possibilitar o cumprimento contratual e a aplicação de remédios ou sanções contratuais em caso de descumprimento, destacando os autores a possibilidade de "automação da oposição da exceção de contrato não cumprido", prevista no art. 476 do Código Civil. A utilidade da tecnologia e do instrumento "inteligente" de contrato não afasta as críticas a esta ferramenta contratual, pois pode apresentar riscos e restrições que lhe são próprias, como erros ou bugs do próprio código. O fato de não haver intervenção ou modificação humana não pressupõe que a programação dos smart contracts sejam perfeitas, restando à parte lesada buscar reparação posterior, tendo em vista a autoexecutoiedade, a única alternativa será a reparação civil com base na vedação do enriquecimento sem causa ou pagamento indevido. A inevitabilidade dos smart contracts também apresenta restrições nos casos de inadimplemento fortuito, nos termos do art. 393 do Código Civil, sem culpa das partes porque o programa não extingue o contrato com a ocorrência do evento fortuito ou de força maior, o mesmo ocorre nos casos de invalidade contratual, porque a tecnologia não permite que as partes retornem ao status quo ante, possibilitando apenas respostas reparatórias (ex post). A insegurança se estende no campo da revisão contratual, seja em âmbito de relações civis ou das relações de consumo, em especial a limitação ou mesmo impossibilidade de exercício do direito de arrependimento, o que deve ser vislumbrado pelo legislador, ou seja, a compatibilização dos smart contracts com os direitos assegurados aos consumidores. Além disso, os smart contracts desafiam os princípios sociais da boa-fé objetiva e da função social do contrato, pois são incompatíveis com inadimplemento positivo do contrato, por violação dos deveres anexos ou laterais da boa-fé, bem como os aspectos da função social, seja em relação a modulação de efeitos do contrato preterindo interesses individuais em prol de interesses sociais, de proteção dos vulneráveis, ou no aspecto de proteção do equilíbrio contratual. Isto porque estas situações envolvem análise casuística o que dificulta ou mesmo impossibilita este tipo de programação. A solução seria abranger previamente no código do smart contract o maior número de situações possíveis, mas a medida aumentaria os custos pré-contratuais, o que poderia inviabilizar esta ferramenta contratual ou até mesmo afastá-la de seu escopo original, que é a busca por maior segurança jurídica. Inclusive a conversão da linguagem natural, do contrato tradicional, em linguagem de código corresponde à outra limitação dos smart legal contracts porque não são todas as cláusulas contratuais de um contrato que são compatíveis com a automação; a polissemia das palavras conduziria a interpretação errônea do programa; a linguagem de código não é compatível com cláusulas gerais que contêm conceitos abstratos como "boa-fé", "razoabilidade" utilizados por algumas espécies contratuais. Tais restrições não impossibilitam o uso dos smart legal contracts, apenas conduzem a reflexão de soluções possíveis para adequá-lo ao ordenamento jurídico nacional. Dando destaque para inclusão do tema no corpo do Projeto de revisão e atualização do Código Civil apresenta progressão no caminhar do instituto, com a proposição de soluções como código kill switch, que permite reiniciar, parar ou interromper o smart legal contract, do reforço ao dever de informar a parte contratante das condições contratuais e dos riscos envolvidos. Nas relações de consumo destaca o Projeto de Lei n° 3.514/2015 cujo art. 45-E, I, estabelece a obrigação do fornecedor disponibilizar previamente o contrato eletrônico (do qual o smart contract pode ser espécie) em língua portuguesa e com linguagem acessível e de fácil visualização aos consumidores, bem como, no inciso IV a facilitação do exercício do direito de arrependimento por formulário ou link deste disponibilizado ao consumidor. Conclusão Os smart contracts se apresentam como um instrumento "inteligente" valioso de formação dos contratos, sendo uma realidade em âmbito internacional, com reflexos no âmbito nacional, a tecnologia apresenta utilidade promovendo maior celeridade e segurança às relações contratuais. As reflexões, restrições e limitações apontadas demonstram a necessidade do debate sobre o assunto, a fim de apresentar soluções viáveis para adequar o instrumento com as regras e princípios do ordenamento jurídico nacional, objetivando o uso da tecnologia sem preterir interesses sociais a interesses individuais. __________ 1 SZABO, Nick. Smart contracts. 1994. Disponível aqui, acessado em 24 de julho de 2024. 2 MOREIRA, Rodrigo. Investigação preliminar sobre a natureza e os critérios de interpretação dos smart contracts. Revista de Direitos e as Novas Tecnologias, vol. 2, n. 3, 2019. Disponível aqui, acessado em 24 de julho de 2024. 3 SZABO, Nick. Op. cit. 4 MIK, Eliza. Smart contracts: teminology, technical limitations and real world complexity. Disponível aqui. 5 Apud MOREIRA, Rodrigo. Op. cit., p. 20. 6 CARDOSO, Stephanie Trindade. Smart contracts: caracterização e aplicação no direito contratual brasileiro. Disponível aqui. 7 PEREIRA, Caio Mário da Silva. Instituições de direito civil: contratos. atual. colab. Caitlin Mulholland. 26. ed. Rio de Janeiro: Forense, 2024. 8 DE LUCCA, Newton. Aspectos Jurídicos da Contratação Informática e Telemática. São Paulo: Saraiva, 2003. LIMA, Cíntia Rosa Pereira de. Contratos de adesão eletrônicos (shrink-wrap e click-wrap) e os termos e condições de uso (browse-wrap). In: LIMA, Cíntia Rosa Pereira; NUNES, Lydia Nunes Bastos Teles (Org.). Estudos Avançados em Direito Digital. 1 ed. São Paulo: Campus Elsevier, 2014. 9 BRASIL. Senado Federal. Parecer n° 1, de 2024. Subcomissão de direito digital da Comissão de Juristas responsável pela revisão e atualização do Código Civil. Brasília, DF: Senado Federal, 2024. Disponível aqui. Acesso em: 30 maio 2024. 10 GRIGG, Ian. The ricardian contract. 2004. Disponível aqui, acesso em 25 de julho de 2024.
A Resolução CD/ANPD 18, de 16 de julho de 2024, define diretrizes essenciais sobre a atuação do encarregado pelo tratamento de dados, complementando as disposições da Lei Geral de Proteção de Dados Pessoais (LGPD)1. Como se sabe, o artigo 41 da LGPD define que o controlador deve indicar um encarregado, cuja identidade e informações de contato devem ser divulgadas publicamente, de forma clara e objetiva, preferencialmente no sítio eletrônico do controlador. Previsão similar consta do artigo 23, III, da LGPD, quanto aos agentes sujeitos ao regime de tratamento público de dados pessoais. Segundo João Victor Rozatti Longhi, "o que se pode ao menos destacar é que é obrigatória a indicação, pelo Poder Público, do encarregado de dados quando houver tratamento de dados, nos termos do art. 39 da Lei (a do citado art. 23, III, da LGPD), lembrando sempre que os relatórios de impacto à proteção de dados deverão ser solicitados pela ANPD aos que se encontram na exceção à proteção legal (art. 4º, inciso III, c/c o §3º, LGPD)"2. De modo geral, em linha com o conceito do artigo 5º, VIII, da LGPD, pode-se dizer que as atividades do encarregado incluem aceitar reclamações e comunicações dos titulares, receber comunicações da ANPD, orientar funcionários sobre práticas de proteção de dados e executar demais atribuições determinadas pelo controlador ou previstas em normas complementares3. O artigo 3º da resolução estabelece que a indicação do encarregado pelo tratamento de dados pessoais deve ser realizada por meio de um ato formal do agente de tratamento, sendo obrigatória ao controlador, mas facultativa ao operador, "considerada política de boas práticas de governança para fins do disposto no art. 52, § 1º, inciso IX, da Lei nº 13.709, de 14 de agosto de 2018, e no art. 13, inciso II, do anexo da Resolução CD/ANPD nº 4, de 24 de fevereiro de 20234, desde que observadas as normas deste Regulamento" (artigo 6º da resolução). Esse ato formal é definido como um documento escrito, datado e assinado que demonstra de maneira clara e inequívoca a intenção do agente de tratamento em designar uma pessoa natural ou jurídica como encarregado. Essa formalidade parece estar alinhada ao princípio da transparência (art. 6º, VI, LGPD), pois visa assegurar a clareza na designação da pessoa que atuará como ponto focal de interlocução com os interessados pelo resultado positivo da atividade de tratamento de dados pessoais, garantindo que suas funções e atividades sejam claramente delineadas. O § 1º do artigo 3º ainda especifica que o documento deve ser claro e inequívoco, reforçando a importância de uma comunicação transparente e precisa sobre a nomeação do encarregado. O § 2º prevê que esse documento deve estar disponível para apresentação à ANPD quando solicitado. No mais, o novo regulamento reforça a obrigatoriedade da nomeação de um encarregado para todas as entidades que realizam o tratamento de dados pessoais, ressalvados os agentes de tratamento de pequeno porte, aos quais se aplicam as disposições da Resolução CD/ANPD nº 2, de 27 de janeiro de 20225. Para estes, o § 3º adapta a exigência, dispensando-os de indicar um encarregado, mas exigindo que disponibilizem um canal de comunicação com os titulares de dados. Isso garante que, mesmo em situações de menor escala, os direitos dos titulares de dados sejam respeitados e atendidos. Já o artigo 5º da resolução estabelece a obrigatoriedade de que pessoas jurídicas de direito público indiquem um encarregado pelo tratamento de dados pessoais ao realizarem operações nesse contexto. A norma especifica que a indicação deve recair preferencialmente sobre servidores ou empregados públicos com reputação ilibada, garantindo transparência e responsabilidade ao processo. A publicação dessa indicação deve ocorrer no Diário Oficial correspondente à esfera de atuação da entidade, seja federal, estadual, distrital ou municipal. Os artigos 12, 13 e 14 da resolução tratam das condições para a assunção da função de encarregado pelo tratamento de dados, sendo inequívoco que pode ser tanto uma pessoa natural, interna ou externa à organização, quanto uma pessoa jurídica, proporcionando versatilidade na escolha do profissional ou entidade mais adequada às necessidades do controlador, mas sufragando o entendimento expressado no Enunciado 680 da IX Jornada de Direito Civil do CJF, segundo o qual seria admissível a indicação de ente despersonalizado.6 O art. 13 enfatiza a importância da comunicação clara e precisa em língua portuguesa com os titulares e a ANPD, garantindo acessibilidade e transparência. Por fim, o art. 14 elimina a exigência de inscrição em entidades ou certificações específicas, focando na competência prática do encarregado, o que facilita a nomeação e promove uma abordagem mais inclusiva e prática para a proteção de dados. Ademais, confirmando diversos entendimentos que já constavam de seu "Guia Orientativo para Definições dos Agentes de Tratamento de Dados Pessoais e do Encarregado", versão 2.0, a ANPD consolidou o entendimento de que as atribuições do encarregado incluem, mas não se limitam, a receber reclamações dos titulares, prestar esclarecimentos, adotar providências, orientar colaboradores sobre práticas de proteção de dados e outras atribuições estabelecidas pelo controlador ou previstas em normas complementares, sendo imprescindível indicar a identidade e as informações de contato do encarregado de forma clara e objetiva. A Seção II do Capítulo III da resolução (artigos 15, 16 e 17) é inteiramente dedicada às atividades e às atribuições do encarregado, e fica claro que, além das atribuições já definidas na LGPD, compete ao encarregado prestar assistência na elaboração de registros de incidentes de segurança, relatórios de impacto, medidas de segurança e políticas internas, além de auxiliar em transferências internacionais de dados e assegurar o cumprimento dos regulamentos da ANPD. Importante destacar que, ao realizar estas funções, o encarregado não é responsável diretamente perante a ANPD pela conformidade dos dados tratados pelo controlador, destacando-se como um facilitador e orientador para que o agente de tratamento atenda às exigências legais e normativas. Esse profissional deve ter conhecimento adequado sobre práticas de proteção de dados e segurança da informação. Por isso, a escolha de um encarregado qualificado é elemento-chave para a conformidade do controlador com a lei, pois seu indicado atuará como o ponto de contato com os titulares dos dados e a ANPD. Com efeito, o artigo 41, §2º, da LGPD já estabelece que uma das principais funções do encarregado é receber reclamações e comunicações dos titulares, bem como prestar esclarecimentos e adotar providências, o que se alinha com o princípio da responsabilização e prestação de contas (accountability), previsto no artigo 6º, X, da LGPD. Outro aspecto positivo é a ênfase no treinamento e conscientização dos funcionários. O encarregado deve promover programas que garantam que todos os colaboradores estejam cientes de suas responsabilidades e das melhores práticas de segurança. Isso é fundamental, pois a segurança da informação não depende apenas de tecnologias, mas também do comportamento humano. A resolução também aborda a necessidade de monitoramento contínuo e auditorias internas. O encarregado deve conduzir auditorias regulares para avaliar a conformidade com as políticas de proteção de dados e identificar possíveis falhas. Essa abordagem proativa é vital para prevenir incidentes de segurança e garantir a eficácia das medidas de proteção. Em caso de incidentes de segurança que comprometam dados pessoais, a resolução estabelece que o encarregado deve agir prontamente para mitigar os impactos, notificando o controlador, a ANPD e os titulares dos dados afetados. Essa exigência está em linha com o artigo 48 da LGPD7, que determina a comunicação de incidentes de segurança que possam acarretar risco ou dano relevante aos titulares. A interação contínua com a ANPD é outro ponto destacado. O encarregado deve manter uma comunicação aberta com a autoridade reguladora, reportando violações significativas e colaborando em investigações. Essa transparência é crucial para manter a confiança pública e assegurar que a proteção de dados pessoais seja levada a sério pelas organizações. Por fim, a resolução descreve as sanções para o descumprimento das diretrizes estabelecidas, que podem incluir multas e restrições operacionais, conforme previsto na LGPD. A responsabilidade do encarregado é garantir que todas as obrigações legais sejam cumpridas, evitando sanções que possam comprometer a reputação e a operação da entidade. Os artigos 18 a 21 da resolução abordam a questão do conflito de interesse no exercício das funções do encarregado pelo tratamento de dados pessoais. Esses dispositivos reforçam a necessidade de o encarregado atuar com ética, integridade e autonomia técnica, assegurando que suas atividades não sejam comprometidas por conflitos que possam macular a postura íntegra e isenta que é esperada. Assim, a resolução permite que o encarregado acumule funções e atue para mais de um agente de tratamento, desde que consiga atender plenamente às suas atribuições sem incorrer em conflitos. No mais, a identificação de conflitos de interesse pode ocorrer tanto internamente, em um único agente de tratamento, quanto entre agentes distintos, especialmente se o encarregado tiver influência sobre decisões estratégicas de tratamento de dados. Para garantir a transparência e a imparcialidade, o encarregado deve declarar qualquer situação que possa configurar conflito de interesse. A resolução também descreve o múnus assumido pelo agente de tratamento no sentido de evitar que o encarregado desempenhe funções que possam resultar em conflitos, exigindo que medidas sejam adotadas para mitigar esses riscos, como não designar a pessoa, implementar medidas de mitigação ou substituir o encarregado. Em último caso, na hipótese de um conflito de interesse ser verificado, o agente de tratamento pode enfrentar sanções conforme o artigo 52 da LGPD, enfatizando a importância de uma gestão cuidadosa e ética no tratamento de dados pessoais. Em conclusão, a Resolução CD/ANPD nº 18 de 16 de julho de 2024 é um avanço importante para a proteção de dados pessoais no Brasil, pois detalha a atuação de uma das mais importantes figuras relacionadas às atividades de tratamento de dados pessoais. A implementação dessas diretrizes é essencial para fortalecer a cultura de proteção de dados no país e garantir que os direitos dos titulares sejam respeitados, protegidos e efetivados. ________________ 1 BRASIL. Autoridade Nacional de Proteção de Dados. Resolução CD/ANPD nº 18, de 16 de julho de 2024. Aprova o Regulamento sobre a atuação do encarregado pelo tratamento de dados pessoais. Diário Oficial da União: seção 1, Brasília, DF, 17 jul. 2024. Disponível em: https://www.in.gov.br/en/web/dou/-/resolucao-cd/anpd-n-18-de-16-de-julho-de-2024-572632074 Acesso em: 18 jul. 2024. 2 LONGHI, João Victor Rozatti. Artigo 41. In: MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti; FALEIROS JÚNIOR, José Luiz de Moura (coord.). Comentários à Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018). 2. ed. Indaiatuba: Foco, 2024, p. 395. 3 Para maiores detalhes sobre o tema, conferir, por todos, QUEIROZ, Renata Capriolli Zocatelli. Encarregado de proteção de dados pessoais - DPO: regulamentação e responsabilidade civil. São Paulo: Quartier Latin, 2022. 4 BRASIL. Autoridade Nacional de Proteção de Dados. Resolução CD/ANPD nº 4, de 24 de fevereiro de 2023. Aprova o Regulamento de Dosimetria e Aplicação de Sanções Administrativas. Diário Oficial da União: seção 1, Brasília, DF, 27 fev. 2023. Disponível em: https://www.in.gov.br/en/web/dou/-/resolucao-cd/anpd-n-4-de-24-de-fevereiro-de-2023-466146077 Acesso em: 18 jul. 2024. 5 BRASIL. Autoridade Nacional de Proteção de Dados. Resolução CD/ANPD nº 2, de 27 de janeiro de 2022. Aprova o Regulamento de aplicação da Lei nº 13.709, de 14 de agosto de 2018, Lei Geral de Proteção de Dados Pessoais (LGPD), para agentes de tratamento de pequeno porte. Diário Oficial da União: seção 1, Brasília, DF, 28 jan. 2022. Disponível em: https://www.gov.br/anpd/pt-br/documentos-e-publicacoes/regulamentacoes-da-anpd/resolucao-cd-anpd-no-2-de-27-de-janeiro-de-2022 Acesso em: 18 jul. 2024. 6 Enunciado 680/CJF - "A Lei Geral de Proteção de Dados Pessoais não exclui a possibilidade de nomeação pelo controlador de pessoa jurídica, ente despersonalizado ou de mais de uma pessoa natural para o exercício da função de encarregado pelo tratamento de dados pessoais" (Aprovado na IX Jornada de Direito Civil). 7 Cfr. BRASIL. Autoridade Nacional de Proteção de Dados. Resolução CD/ANPD nº 15, de 24 de abril de 2024. Aprova o Regulamento de Comunicação de Incidente de Segurança. Diário Oficial da União: seção 1, Brasília, DF, 25 abr. 2024. Disponível em: https://www.in.gov.br/en/web/dou/-/resolucao-cd/anpd-n-15-de-24-de-abril-de-2024-556243024 Acesso em: 18 jul. 2024.
Quando no verão de 1955, John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon compartilharam com o mundo a ideia de que qualquer aspecto da aprendizagem ou atividade humana poderiam ser descritos de forma precisa, permitindo que uma máquina fosse construída para simulá-la1, cunhando-lhe o termo "inteligência artificial" ("IA"), despertou-se na sociedade uma legítima expectativa - tão promissora quanto incerta. E, embora o termo continue a chamar atenção mais de meio século depois de seu primeiro uso, há controvérsias quanto a sua proposição. Isso porque além de não ser consistente fazer uma analogia entre a autonomia de robôs e a racionalidade humana - dotado de ética, moral e valores que refletem não apenas a personalidade individual, mas a compreensão coletiva da sociedade -, a própria intenção de associar o termo autonomia (lato sensu) à máquina pode não ser ideal, tendo em vista que, muitas vezes, o que se chama autonomia na verdade representa uma "variedade de combinações algorítmicas viabilizadas por um software"2. Portanto, trata-se muito mais de uma reprodução de certos tipos de comando do que, de fato, uma escolha, realizada de forma livre e consciente. As divergências terminológicas e conceituais quanto à IA refletem o fato de se tratar de um campo em aberto, com significativos avanços nas últimas décadas - especialmente em função do advento do deep learning3 -, mas que ainda está longe de suas potencialidades. Nesse sentido, Kai-Fu Lee4 defende que é possível explicar a evolução da IA a partir de "quatro ondas": (i) da internet, por exemplo, por meio do uso de algoritmos de IA que aprendem nossas preferências e passam a nos recomendar conteúdos; (ii) de negócios, como utilizado por bancos e seguradoras que realizam mineração de dados5; (iii) de percepção, por exemplo, o aumento do uso de sensores inteligentes; e (iv) de autonomia, referindo-se à união das três ondas anteriores, permitindo a fusão das capacidades otimização quanto aos grandes conjuntos de dados complexos e percepção sensorial do ambiente externo, por exemplo, os carros autônomos. Entretanto, o regulador precisa estar atento aos riscos que a IA apresenta. Um caso emblemático, julgado em julho de 2022, após o Departamento de Justiça dos Estados Unidos ter reconhecido o uso de critérios raciais, étnicos, religiosos, sexuais e de renda para definir anúncios de moradia para usuários do Facebook, atentando contra o Fair Housing Act (Lei de Habitação Justa).6 Outro caso que vale a pena ser mencionado é o escândalo envolvendo a Amazon após o preterimento de candidaturas de mulheres em detrimento a de homens por um sistema de IA para recrutamento, implicando em discriminação de gênero.7 Nota-se, ainda, o fato de influenciadores negros terem menor "entrega" e, portanto, engajamento de seus conteúdos em redes sociais8, diminuindo a possibilidade deles se tornarem influenciadores competitivos no mercado digital. Isso ocorre porque existem "vieses algorítmicos",9 termo cunhado para descrever as distorções e/ou injustiças resultantes das decisões automatizadas feitas por algoritmos de inteligência artificial10.  A evolução do conceito de viés algorítmico para o direito internacional tem sido gradual, mas significativa. Organizações internacionais, como a União Europeia e as Nações Unidas, têm reconhecido a importância de abordar vieses algorítmicos em suas políticas e diretrizes. Por exemplo, o Regulamento Geral de Proteção de Dados ("GDPR") da UE inclui disposições que abordam a transparência e responsabilidade no uso de algoritmos de IA que impactam os direitos e liberdades das pessoas11. Além disso, iniciativas globais, como a "Declaração de Montreal pelo Desenvolvimento Responsável da Inteligência Artificial" (2018)12, destacam a necessidade de garantir a equidade e a não discriminação em sistemas automatizados. No entanto, apesar do reconhecimento crescente, desafios persistem na aplicação efetiva do direito internacional para mitigar vieses algorítmicos, pois sua complexidade técnica e a falta de transparência em sua implementação continuam a ser obstáculos importantes. Confira aqui a íntegra do artigo.
1. Contexto  Quando o assunto são Big Techs, avanço de tecnologia e suas implicações no Direito, o tempo é um fator crucial. A ideia inicial deste artigo era outra, por óbvio, relacionava-se profundamente com o texto que aqui se apresenta, contudo, era diferente. A velocidade com que os fatos se desenrolam no vasto e intricado campo da TechLaw impõe aos operadores do direito uma dedicação incansável ao estudo e um cuidado meticuloso. O tempo, como um mestre severo e implacável, sempre a ensinar com rigor, nos obriga a reavaliar e a adaptar nossas perspectivas diante de cada nova inovação. Inicialmente, pensou-se em analisar os problemas da utilização de dados pessoais dos usuários pela Meta (Facebook, Messenger, Instagram, Threads e Whatsapp) para treinar sua IA generativa, a Llama 3, destacando a falta de transparência e a dificuldade do exercício assegurado ao titular de dados de se opor ao tratamento de dados pessoais como assegurado pelo § 2º do art. 18 da LGPD. Além disso, pensou-se em analisar a tormentosa questão envolvendo o uso de dados pessoais de crianças, adolescentes e de terceiros para esta prática. Entretanto, a Autoridade Nacional de Proteção de Dados (ANPD)1 foi instada pelo Instituto Brasileiro de Defesa do Consumidor (IDEC)2 a se manifestar sobre este tema, acarretando na suspensão deste tratamento de dados pela Meta de maneira cautelar. Desta forma, o presente, além destes pontos, irá analisar aspectos cruciais do voto nº 11/2024, proferido pela Diretora da ANPD, Miriam Wimmer. Este voto é paradigmático e elucida questões cruciais sobre a utilização de dados pessoais para o treinamento de IA fornecendo uma análise detalhada e robusta dos desafios, preocupações e das implicações dessa prática, demonstrando a importância de uma legislação como a LGPD para a efetiva proteção dos titulares de dados neste contexto. Para entender a problemática que ensejou o referido voto, importante fazer uma breve exposição de fatos decisivos. No dia 22 de maio de 2024, a Meta alterou sua política de proteção de dados e privacidade no mundo todo, a empresa iria utilizar todo conteúdo gerado por seus usuários em seus feed de notícias (Facebook e Instagram) como, por exemplo, textos, legendas de foto, reflexões, e etc. - ou seja - tudo que qualquer usuário publicasse nessas redes, incluindo fotos e vídeos, excetuando apenas mensagens privadas. Todas essas informações seriam utilizadas como base de treinamento para a Llama 3, a Inteligência Artificial generativa da Meta. Confira aqui a íntegra da coluna.
A ideia de inteligência artificial surgiu a partir do trabalho de Warren McCulloch e Walter Pitts, em 19431. Este trabalho foi estruturado em três premissas: conhecimento da fisiologia básica e função dos neurônios no cérebro; análise formal da lógica proposicional ("e", "ou", "não"); e a teoria da computação de Turing (que será descrita abaixo). O resultado foi a proposta de um modelo de neurônios artificiais capazes de responder a estímulos.2 A partir destes estudos, a expressão foi utilizada pela primeira vez por John McCarthy,3 considerado como o "pai" da Inteligência Artificial (IA ou Artificial Intelligence - AI). John McCarthy, professor assistente de matemática em Dartmouth College (Hanover, Nova Hampshire), juntamente com outros três pesquisadores: Marvin Minsky de Harvard, Nathan Rochester da IBM e Claude Shannon do Bell Telephone Laboratories, passaram a estudar as possibilidades da IA. McCarthy, um visionário à época, acreditava que um computador poderia simular muitos ou todas as funções cognitivas humanas avançadas, chegando a afirmar: "Every aspect of learning or any other feature of intelligence can be so precisely described that a machine can be made to simulate it."4 Assim como no mito de Pigmalião, no qual este personagem da mitologia grega cria uma estátua tão perfeita que se apaixona por ela e pede aos deuses que a tornem humana. Semelhantemente, McCarthy, tão entusiasmado com as possibilidades da aplicação da inteligência artificial, acabou passando a ideia de que estes sistemas podem parecer ter características humanas, como aprendizado, adaptação e até mesmo "personalidade". Há quem defenda que estes entes, por ficção jurídica, teriam personalidade como as pessoas jurídicas, e assim como estas teriam um representante legal.5 Todavia tal alegação não pode prosperar,6 na medida em que se deve questionar a conveniência e possibilidade de se atribuir à inteligência artificial personalidade jurídica. Para tanto tais funcionalidades devem demonstrar a capacidade de sentir e raciocinar como seres humanos singulares e não meramente "imitando seres humanos". Todavia, diante do atual desenvolvimento tecnológico não se pode chegar à tal conclusão, razão pela qual não seria possível atribuir personalidade jurídica às funcionalidades de IA.7 No âmbito da União Europeia, o Parlamento Europeu editou a Recomendação 2015/2103 (INL), de 16 de fevereiro de 20178, com recomendações à Comissão de Direito Civil sobre Robótica. Quanto à responsabilidade civil, o documento sugere a aplicação das modalidades de responsabilidade objetiva ou de gestão de riscos (art. 53),9 o que foi levado em consideração pelo Regulamento Europeu sobre Inteligência Artificial, conhecido como AI Act, objeto de análise em diversos textos desta coluna. A resolução recomenda, ainda, que a solução a ser adotada não minimize os danos causados pelo fato de não terem sido provocados por um agente humano, máxime sob a perspectiva da pessoa lesada (art. 52). Segundo o entendimento da Comissão, atualmente a responsabilidade deve ser imputada a um ser humano, não a um robô, aniquilando qualquer intenção de se atribuir ao robô personalidade jurídica para fins de responsabilidade civil. Todavia, em sendo o regime atual insuficiente para solucionar alguma controvérsia futura envolvendo o surgimento de uma IA mais complexa e autônoma, o regime de responsabilidade civil objetiva ou de gestão de riscos deverá considerar proporcionalmente o nível de autonomia da máquina e o tempo de aprendizado que lhe for proporcionado, ressalvado o machine learning (art. 56). O regime de responsabilidade objetiva ali proposto pode ser suportado pelo usuário/consumidor ou pelo produtor/fornecedor. No primeiro caso, imputa-se a responsabilidade pelo comportamento da IA à pessoa jurídica em nome de quem ela age, aplicando-se a ideia de IA como ferramenta, em um regime de responsabilidade similar a dos pais por danos causados por seus filhos, ou donos de animais, relativamente aos danos causados por estes. No segundo caso, o produtor ou fornecedor pode ser responsabilizado pelo fato do produto, ou seja, quando não adotar os cuidados necessários ou legalmente exigidos de segurança e de informação ao consumidor sobre os riscos da IA.10 No caso da abordagem pela gestão de riscos, a responsabilidade por danos provocados pela IA se justifica pelo ônus de prova extremamente gravoso que poderá recair ao consumidor em algumas hipóteses de responsabilidade pelo fato do produto, especialmente devido à autoaprendizagem da máquina.11 Daí a importância de se prever a inversão do ônus da prova como o faz o Projeto de Lei brasileiro n. 2.338 (§2º do art. 27 do PL n. 2.338). Por outro lado, a responsabilidade por gestão de riscos também pode ser fundamentada na teoria do deep-pocket, importada do direito estadunidense, segundo a qual o beneficiário possui o dever de compensar os danos causados por sua atividade lucrativa que gera riscos à sociedade. Neste sentido, o atual parágrafo único do art. 927 do Código Civil brasileiro, bem como o Código de Defesa do Consumidor parecem estar alinhados a tal concepção. O Projeto de Lei 2.338 de 202312 traz uma classificação de risco arts. 14 a 16 (sobre o risco excessivo) e arts. 17 e 18 (sobre alto risco), para determinar a responsabilização objetiva na primeira hipótese (§ 1º do art. 27) e responsabilização subjetiva com culpa presumida (§ 2º do art. 27), com previsão de inversão do ônus da prova. Deve-se atentar, é verdade, para o justificável chilling effect ("efeito de medo") provocado por tentativas de lege ferenda de responsabilização civil de agentes e empresas que trabalham na linha de desenvolvimento e produção de IA, independentemente de culpa. No entanto, o melhor caminho a ser seguido no plano legislativo brasileiro consiste na aplicação de uma tipologia múltipla e setorial de responsabilidade civil por danos causados por IA. Em outras palavras, deve-se considerar o tipo mais apropriado para cada IA em concreto. Do mesmo modo, o interesse de todos os atores no desenvolvimento tecnológico e otimização do bem-estar que pode ser promovido pelo avanço da IA exige uma solução equilibrada de repartição dos riscos entre desenvolvedores, fornecedores e consumidores desses mecanismos inteligentes, o que torna bastante pertinentes as iniciativas como a exigência de seguros e de certificação por parte dos usuários para manejo de alguns tipos mais complexos e sujeitos a riscos de IA. Em suma, toda e qualquer "idealização" da IA seja no sentido de que são ferramentas perfeitas e, portanto, não causarão risco algum; seja no sentido contrário, que pelo desconhecido a responsabilização tem que ser a mais gravosa possível, não são adequadas e vão na contramão do necessário desenvolvimento sustentável das tecnologias para a melhoria da qualidade de vida humana. Inteligência artificial não é perfeita e nem pretende sê-lo; assim como os seres humanos não são perfeitos como na reflexão feita por Ray Kurzweil:13 The idea stems from the realization that as software systems become more complex, like humans, they will never be perfect, and that eliminating all bugs is impossible. As humans, we use the same strategy: we don't expect to be perfect, but we usually try to recover from inevitable mistakes. __________ 1 McCULLOCH, Warren; PITTS, Walter. A Logical Calculus of Ideas Immanent in Nervous Activity. In: Bulletin of Mathematical Biophysics, vol. 5, no. 4 (1943), pp. 115-133. 2 RUSSELL, Stuart J.; NORVIG, Peter. Artificial Intelligence: A Modern Approach. 3. ed. New Jersey: Prentice-Hall, 2010. pp. 17. 3 McCARTHY, John; MINSKY, M. L.; ROCHESTER, N.; SHANNON, C. E. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. In: Stanford Edu, 1955. Disponível aqui, acessado em 20 de dezembro de 2019. 4 McCARTHY, John; MINSKY, M. L.; ROCHESTER, N.; SHANNON, C. E. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. In: AI Magazine, vol. 27, número 4 (2006), pp. 12 - 15. p. 12. Disponível aqui, acessado em 20 de dezembro de 2019. 5 SOLUM, Lawrence B. Legal Personhood for Artificial Intelligences. In: North Carolina Law Review, vol. 70, n. 4, 1992, pp. 1.231 - 1.287. Disponível aqui, acessado em 17 de junho de 2024; KERR, Ian. Spirits in the material world: intelligent agents as intermediaries in electronic commerce. In: Dalhousie Law Journal, vol. 22, 1999, pp. 189 - 249. Disponível aqui, acessado em 17 de junho de 2024. 6 Em sentido contrário à personalidade jurídica dos sistemas de inteligência artificial: RUSSEL, Stuart; NORVIG, Peter. Op. cit., p. 1.036: "To our knowledge, no program has been granted legal status as an individual for the purposes of financial transactions; at present, it seems unreasonable to do so. Programs are also not considered to be "drivers" for the purposes of enforcing traffic regulations on real highways. In California law, at least, there do not seem to be any legal sanctions to prevent an automated vehicle from exceeding the speed limits, although the designer of the vehicle's control mechanism would be liable in the case of an accident." 7 LIMA, Cíntia Rosa Pereira de; OLIVEIRA, Cristina Godoy Bernardo de; RUIZ, Evandro Eduardo Seron. Inteligência Artificial e Personalidade Jurídica: Aspectos Controvertidos. In: BARBOSA, Mafalda Miranda [et alli] Direito Digital e Inteligência Artificial: diálogos entre Brasil e Europa. Indaiatuba: Foco, 2020. 8 UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil sobre Robótica. Disponível aqui, acessado em 27 de junho de 2024. 9 53.  Considera que o futuro instrumento legislativo deverá basear-se numa avaliação aprofundada da Comissão que determine se a abordagem a aplicar deve ser a da responsabilidade objetiva ou a da gestão de riscos; 10 PAGALLO, Ugo. The laws of robots: crimes, contracts, and torts. Heidelberg: Springer, 2013. p. 33. 11 CERKA, Paulius; GRIGIENE, Jurgita; SIRBIKYTE, Gintare. Liability for damages caused by Artificial Intelligence. Computer Law & Security Review, Elsevier, v. 31, n. 3, p. 376-389, jun. 2015. p. 386. 12 BRASIL. Senado Federal. Projeto de Lei n. 2.338 de 2023. Disponível em: , acessado em 27 de junho de 2024. 13 The Singularity Is Near: When Humans Transcend Biology. Nova York: Viking (Penguin Group), 2005. p. 191: "A ideia deriva da percepção de que, à medida que os sistemas de software se tornam mais complexos, como os humanos, eles nunca serão perfeitos e que é impossível eliminar todos os erros. Como seres humanos, usamos a mesma estratégia: não esperamos ser perfeitos, mas geralmente tentamos nos recuperar de erros inevitáveis." (tradução livre)
sexta-feira, 21 de junho de 2024

Dados pessoais e IA: problemas e soluções

A utilização de sistemas de inteligência artificial coloca especiais problemas em relação aos dados pessoais. Sendo os dados, em geral, e os dados pessoais, em particular, a matéria-prima que alimenta o software inteligente, garantindo a sua aprendizagem, não se podem ignorar os riscos que, neste horizonte, emergem. Entre tais riscos, e no tocante à ligação entre a IA e a utilização de dados pessoais, conta-se o risco de invasão à privacidade, pelo potencial intrusivo que o processamento de certos dados comporta, permitindo, em alguns casos, a sequenciação dos movimentos do titular daqueles ao longo de toda a sua vida; o risco de violação da igualdade, pelo perigo de discriminação que pode resultar da análise dos dados pessoais, tendo em conta as correlações estatísticas operadas pelos sistemas de inteligência artificial que, incapazes de aceder à dimensão semântica dos signos que mobilizam, podem gerar enviesamentos, e tendo em conta os próprios enviesamentos induzidos ao algoritmo; o risco de perturbação da liberdade, pelo fomento de fenômenos como o boxing, que tem expressão em termos comerciais e em termos políticos e ideológicos, abrindo-se as portas a formas de manipulação informativa, agravada pelas hipóteses de difusão de falsidades geradas pelos algoritmos generativos; o risco de perturbação da integridade psíquica do sujeito, como consequência de uma eventual manipulação emocional, resultante da criação de um espaço de interação pretensamente subjetiva que encerra o sujeito sobre si mesmo; o risco de violação da honra e do direito à identidade e verdade pessoal, pela produção de fake news e deep fake news a partir dos dados pessoais que são computados. A tudo isto acresce o potencial de distorção dos próprios resultados a que os sistemas, em geral, podem chegar, se e quando alimentados por dados de segunda geração (isto é, dados gerados por sistemas autónomos) corrompidos. Na verdade, tendo os algoritmos potencial para gerar novos dados a partir dos que foram inicialmente transmitidos, coloca-se o problema de saber se o fundamento que licitude do tratamento que deles seja feito é suficiente ou não para abarcar esta segunda geração de dados. Por outro lado, o modo de funcionamento da máquina, baseado no estabelecimento de correlações estatísticas - que estão muito longe de representar relações de causalidade -, pode estar na base de corrupção de dados que, posterior e sequencialmente, poderão ser utilizados como matéria prima para a aprendizagem algorítmica. Quer isto dizer que, para além do potencial de discriminação que os algoritmos encerram, eles exponenciam a possibilidade de se chegar a soluções erradas, eventualmente lesivas de direitos alheios, agravando-se, assim, um problema atinente aos vieses de programação que possam já existir. Acresce a tudo isto que nem sempre é fácil, atenta a autonomia e a opacidade dos sistemas, perceber quais os conjuntos de dados efetivamente utilizados na aprendizagem algorítmica. Num outro plano, as dificuldades comunicam-se à eventual concretização de uma pretensão indemnizatória. Na verdade, ainda que no tocante aos dados pessoais se parta, nos termos do artigo 82º RGPD, de uma presunção de culpa, esta poder ser facilmente ilidida pela prova do cumprimento de todas as regras decorrentes do regulamento. Lidando com sistemas autónomos, as lesões podem ser causadas pela corrupção de dados provocada pelo funcionamento algorítmico. E, nessa medida, as lesões deixam de poder ser imputadas ao controller, mesmo tendo em conta que ele pode responder pelos atos do processor, exceto se convocarmos, para fundamentar a responsabilidade, um regime diverso daquele que assenta no RGPD ou na disciplina privatística do Código Civil. É este um dos principais problemas da existência de dados de segunda geração que podem ou não ser dados pessoais, atenta a possível anonimização que deles venha a ser feita, a suscitar problemas atinentes não só à culpa como à causalidade. Mas o problema pode também ser causado com base nos dados de primeira geração: ou porque com base neles se podem criar deep fake news, ou porque podem conduzir a hipóteses de discriminação, ou porque podem gerar situações de manipulação (ideológica ou emocional), suscitando-se o problema de saber a quem pode ser imputada a lesão. Dir-se-ia, quanto à relação entre os dados pessoais usados ou gerados pela inteligência artificial e a responsabilidade civil, que as dificuldades são de dois tipos: em primeiro lugar, os dados que permitem o funcionamento da inteligência artificial podem sofrer uma corrupção, podendo não ser viável descobrir-se a sua origem ou não sendo o utilizador, distribuidor ou fabricante responsável por eles; em segundo lugar, os dados gerados pelo sistema autónomo, podendo eles próprios não ser fiáveis, podem resultar dos processos automáticos de autoaprendizagem. Os problemas em torno da proteção de dados pessoais parecem, contudo, agravar-se quando lidamos com algoritmos generativos, capazes de, por si próprios, a partir da análise de biliões de dados, gerar textos, obras de arte, responder a questionários, compreender e reproduzir imagens, gerar códigos de programação, etc. Em primeiro lugar, questionam os autores acerca da qualidade e atualização dos dados que são utilizados para os treinar, no âmbito de uma aprendizagem supervisionada. Na verdade, baseando-se a sua aprendizagem no deep learning, são utilizadas para os treinar técnicas de aprendizagem supervisionada e por reforço1, o que determina que os resultados possam ser mais fidedignos, mas, ao mesmo tempo, que os dados inseridos têm de ser constantemente atualizados. Por outro lado, servindo os dados utilizados para treinar o algoritmo para gerar respostas no que respeita aos mais diversos domínios e destinando-se o algoritmo generativo a ser integrado noutros sistemas de inteligência artificial (isto é, tratando-se de um sistema de inteligência artificial de finalidade geral), somos necessariamente confrontados com um problema de não pequena monta: qual a base jurídica que justifica a recolha em massa dos dados que são utilizados? Nos termos do artigo 6º RGPD, a licitude do tratamento fica dependente da existência do consentimento do seu titular ou, em alternativa, da verificação de uma das situações nele previstas: se o tratamento for necessário para a execução de um contrato no qual o titular dos dados é parte, ou para diligências pré-contratuais a pedido do titular dos dados; se o tratamento for necessário para o cumprimento de uma obrigação jurídica a que o responsável pelo tratamento esteja sujeito; se o tratamento for necessário para a defesa de interesses vitais do titular dos dados ou de outra pessoa singular; se o tratamento for necessário ao exercício de funções de interesse público ou ao exercício da autoridade pública de que está investido o responsável pelo tratamento; se o tratamento for necessário para efeito dos interesses legítimos prosseguidos pelo responsável pelo tratamento ou por terceiros, exceto se prevalecerem os interesses ou direitos e liberdades fundamentais do titular que exijam a proteção dos dados pessoais, em especial se o titular for uma criança. Por seu turno, tratando-se de categorias especiais de dados (dados que revelem a origem racial ou étnica, as opiniões políticas, as convicções religiosas ou filosóficas, a filiação sindical, dados genéticos, dados biométricos que identifiquem uma pessoa de forma inequívoca, dados relativos à saúde, dados relativos à vida sexual ou orientação sexual), as condições de licitude do tratamento tornam-se mais rigorosas. Ainda que o titular dos dados autorize, nos termos da relação firmada com a OpenIA para utilização do ChatGPT, o tratamento de dados, devendo o consentimento ser específico (isto é, orientado para as finalidades a que o responsável se propõe, nos termos dos artigos 12º e seguintes RGPD), sob pena de invalidade, e devendo o referido tratamento respeitar o princípio da limitação de finalidades, tornam-se percetíveis as dificuldades. Dito de outro modo, o consentimento deve ser prestado para um específico tratamento ao qual preside uma específica finalidade, o que está de acordo com o princípio da limitação das finalidades, nos termos do qual os dados pessoais são recolhidos para finalidades determinadas, explícitas e legítimas, não podendo ser tratados posteriormente de uma forma incompatível com as mesmas. Este princípio da limitação das finalidades é, contudo, mais amplo, não derramando a sua eficácia apenas no que toca à especificidade do consentimento. Na verdade, o referido princípio determina uma ligação incindível entre o fundamento que se invoca para o tratamento de dados e as concretas atividades que posteriormente podem ser legitimadas. Nos termos do artigo 13º/1 c) e do artigo 14º/1 c) RGPD, o responsável pelo tratamento de dados deve informar o titular dos dados acerca do fundamento desse tratamento, antes de ele iniciar e relativamente a uma finalidade específica. Admitem-se, é certo, tratamentos de dados posteriores, que não sejam considerados incompatíveis com as finalidades iniciais. Assim, os fins de arquivo de interesse público, os fins de investigação científica ou histórica e os fins estatísticos estão salvaguardados. A questão que se coloca é a de saber se o tratamento de dados posterior que seja feito, por exemplo, pela OpenIA ou por terceiros a quem sejam divulgados os dados - sejam estes dados originários ou dados gerados pelo algoritmo - é ou não compatível com este princípio. Além disso, os dados recolhidos devem ser adequados, pertinentes e limitados ao que é necessário relativamente às finalidades para as quais são tratados (princípio da minimização de dados). Assim, qualquer que seja o fundamento invocado, ele não legitima o tratamento de dados para além do que se revele essencial às finalidades invocadas. Há que estabelecer-se, portanto, um juízo ponderativo de exigibilidade no que respeita às diversas categorias de dados recolhidos. O problema com que lidamos, ao confrontarmo-nos com algoritmos generativos, é, porém, o de saber se este princípio pode ser cumprido atenta a falta de limitação de finalidades. Em causa pode estar, também, o princípio da exatidão. Os dados pessoais devem ser exatos e atualizados sempre que necessário, devendo-se adotar todas as medidas adequadas para que, em caso de inexatidão, sejam apagados ou retificados sem demora. Na verdade, nos termos do artigo 16º RGPD, o titular dos dados tem direito a obter, sem demora injustificada, do responsável pelo tratamento a retificação dos dados pessoais que lhe digam respeito e que sejam inexatos, ou que sejam completados os dados incompletos. O certo é que, por força da incapacidade de aceder a uma dimensão semântica, um sistema como o ChatGPT produz inúmeras vezes conteúdos que, podendo contender com dados pessoais, não são exatos. E ainda que haja direito a uma retificação, sendo esses dados transmitidos a terceiros que podem ser desconhecidos, coloca-se a questão de saber como pode ser operacionalizado o direito à retificação por parte do titular dos dados. Igualmente problemático pode ser o princípio da integridade e confidencialidade. Ausente do elenco de condições a que devem obedecer os dados pessoais de acordo com a lei 67/98, é explicitamente introduzido pelo RGPD, comunicando-nos que os referidos dados devem der tratados de uma forma que garanta a sua segurança, incluindo a proteção contra o seu tratamento não autorizado ou ilícito e contra a sua perda, destruição ou danificação acidental, adotando as medidas técnicas ou organizativas adequadas. Ora, há a possibilidade de os dados tratados por um sistema como o ChatGPT virem a ser expostos ou perdidos, faltando em muitos casos a transparência necessária para se compreender o processo. Parece, portanto, que os algoritmos generativos colocam, do ponto de vista normativo, muitas dificuldades no que respeita à compatibilização com a intencionalidade do RGPD. Além disso, se tivermos em conta que os princípios e deveres impostos pelo RGPD visam salvaguardar os titulares dos dados pessoais, mantendo-os incólumes nos direitos que, numa relação de interioridade constitutiva, subjazem ao direito à proteção de dados pessoais, haveremos de ter em conta que estes algoritmos generativos, como quaisquer outros, mas de forma incrementada, potenciam os riscos a que aludimos ab initio. Torna-se, por isso, fundamental ter em conta o Regulamento do Parlamento Europeu e do Conselho relativo à IA. A disciplina estabelecida pelo Regulamento estrutura-se em função de diversos níveis de risco, resultado da combinação da probabilidade de ocorrência de danos com a gravidade desses danos. Desde logo, há determinados sistemas que são considerados de risco inaceitável, sendo absolutamente proibidos. Por seu turno, os sistemas de IA de risco elevado são os sistemas destinados a ser usados como um componente de um produto ou os sistemas que sejam produtos e que estejam previstos no anexo I; os produtos cujo componente de segurança seja um sistema de IA ou os sistemas que sejam sujeitos a uma avaliação de conformidade por terceiros com vista à sua colocação em serviço, nos termos dos atos enumerados no anexo I; os sistemas constantes do anexo III, desde que cumpram as especificações previstas no regulamento. Este elenco não é fixo, podendo ser alargado ou diminuído, segundo os critérios do artigo 7º. Assim, um sistema de IA a que se refere o Anexo III não pode ser considerado de risco elevado se não representar um risco significativo de danos para a saúde, a segurança ou os direitos fundamentais das pessoas singulares, nomeadamente se não influenciarem de forma significativa o resultado da tomada de decisões. Mas, os sistemas de IA a que se refere o anexo III devem ser sempre considerados de risco elevado nos casos em que executarem a definição de perfis de pessoas singulares. Prevê-se, ainda, que a qualquer momento a comissão possa atualizar a listagem do anexo III. Para tanto, é necessário que se preencham determinados requisitos: os sistemas de IA destinem-se a ser utilizados em qualquer um dos domínios enumerados no anexo III; e os sistemas de IA representem um risco de danos para a saúde e a segurança ou de repercussões negativas nos direitos fundamentais, e esse risco seja equivalente ou superior ao risco de danos ou repercussões negativas representado pelos sistemas de IA de risco elevado já referidos no anexo III, estabelecendo-se diversos critérios para o efeito. Para além do risco elevado, prevê-se a existência de sistemas de risco moderado e limitado. São, ademais, tratados de forma específica os sistemas de inteligência artificial de finalidade geral, isto é, aqueles que têm capacidade para servir para diversas finalidades, tanto para utilização direta, como para integração noutros sistemas de IA. Quanto a estes há que estabelecer uma linha divisória entre os que importam risco sistémico e os que não envolvem. Os primeiros são os que apresentam capacidades de alto impacto, avaliadas com base em ferramentas e metodologias técnicas apropriadas, incluindo indicadores e referências, ou que, com base em uma decisão da Comissão, ex officio ou após um alerta qualificado pelo painel científico, sejam vistos como modelos de IA que tenham capacidades ou impacto equivalentes àqueles. Esta linha divisória será fundamental para se determinarem os deveres que vinculam os prestadores destes modelos. Aos sistemas de risco elevado está associado um conjunto mais exigente de deveres: deveres de conceção e de desenvolvimento, assumindo particular importância, para o tema que tratamos, a obrigação resultante do artigo 10º, passando a exigir-se que os dados que sirvam para treino e aprendizagem da máquina cumpram diversos critérios de qualidade ali previstos; e deveres dos prestadores de serviços (os prestadores de sistemas de IA de risco elevado devem assegurar que os seus sistemas de IA de risco elevado cumpram os requisitos previstos no regulamento; indicar no sistema de IA de risco elevado ou, se tal não for possível, na embalagem ou na documentação que o acompanha, consoante o caso, o seu nome, o nome comercial registado ou a marca registada e o endereço no qual podem ser contactados; dispor de um sistema de gestão da qualidade que cumpra o disposto no artigo 17º; conservar a documentação nos termos do artigo 18º; quando tal esteja sob o seu controlo, manter os registos gerados automaticamente pelos sistemas de IA de risco elevado que disponibilizam, conforme previsto no artigo 19º; assegurar que o sistema de IA de risco elevado seja sujeito ao procedimento de avaliação da conformidade aplicável, tal como previsto no artigo 43º, antes da colocação no mercado ou da colocação em serviço; elaborar uma declaração UE de conformidade, nos termos do artigo 47º; apor a marcação CE no sistema de IA de risco elevado ou, se tal não for possível, na embalagem ou na documentação que o acompanha, para indicar a conformidade com o regulamento; respeitar as obrigações de registo a que se refere o artigo 49º; adotar as medidas corretivas necessárias e prestar as informações, tal como estabelecido no artigo 20º; mediante pedido fundamentado de uma autoridade nacional competente, demonstrar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos pelo regulamento); deveres dos responsáveis pela implantação (dever de adotar medidas técnicas e organizativas adequadas para garantir que utilizam esses sistemas de acordo com as instruções de utilização que os acompanham; dever de atribuir a supervisão humana a pessoas singulares que possuam as competências, a formação e a autoridade necessárias, bem como o apoio necessário; nas hipóteses em que exerça controlo sobre os dados de entrada, dever de assegurar que os dados de entrada sejam pertinentes e suficientemente representativos tendo em vista a finalidade prevista do sistema de IA de risco elevado; dever de controlar o funcionamento do sistema de IA de risco elevado com base nas instruções de utilização; dever de manter os registos gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo, por um período adequado à finalidade prevista do sistema de IA de risco elevado; dever de realizar uma avaliação de impacto sobre a proteção de dados; tratando-se de sistemas de risco elevado previstos no anexo III, que tomam decisões ou ajudam a tomar decisões relacionadas com pessoas singulares, dever de informar as pessoas singulares de que estão sujeitas à utilização do sistema de IA; dever de cooperar com as autoridades competentes em todas as medidas que essas autoridades tomarem em relação a um sistema de IA de risco elevado). Estabelecem-se, igualmente, especiais deveres de transparência relativamente a certos sistemas, nos termos do artigo 50º, bem como para os sistemas de finalidade geral, deveres esses que, neste último caso, divergirão consoante o sistema apresente risco sistémico ou não. Fundamental será, portanto, articular de forma compatibilizadora as regras resultantes do Regulamento IA com o regime instituído pelo RGPD. Os desafios, contudo, são muitos. E mais serão se pensarmos que uma eventual tutela ressarcitória não está ainda, sempre que se lide com a IA, totalmente assegurada, atentas as dificuldades que a esse nível se enfrentam. 1 Pedro Nunes, Um sistema de inteligência artificial nas bocas do mundo, Observatório Almedina, 2023.