Entre algoritmos e estetoscópios: O Direito à saúde na era da Inteligência Artificial
segunda-feira, 18 de agosto de 2025
Atualizado em 15 de agosto de 2025 14:57
Atualmente, no contexto da Quarta Revolução Industrial, vivenciamos uma nova onda de transformações estruturais impulsionadas por tecnologias emergentes como a inteligência artificial, a robótica e o big data. Esses avanços não apenas ampliam as fronteiras da Medicina contemporânea, mas também impõem complexos desafios éticos, jurídicos e sociais, exigindo a reformulação de marcos regulatórios e a criação de políticas públicas que equilibrem inovação tecnológica com a preservação de direitos fundamentais.
Nesse cenário, diversas empresas têm investido no desenvolvimento de tecnologias e algoritmos voltados à coleta e análise de dados relacionados à saúde dos indivíduos - como sinais vitais, frequência cardíaca, temperatura corporal, estado emocional, capacidade cognitiva e padrões de atividade física. Um exemplo concreto refere-se aos pacientes com diabetes, que enfrentam o desafio cotidiano de controlar seus níveis de glicose no sangue. Por meio de soluções digitais inteligentes, é possível monitorar continuamente a glicemia, permitindo que sistemas baseados em inteligência artificial processem essas informações e forneçam, em tempo real, subsídios para decisões clínicas mais precisas e personalizadas.1
A Medicina 4.0 inaugura um novo paradigma denominado "saúde inteligente", caracterizado pela transição de um modelo assistencial tradicional para uma abordagem centrada na prevenção, predição, personalização. Nesse novo cenário, o cuidado em saúde afasta-se do tratamento meramente reativo e passa a priorizar estratégias de antecipação diagnóstica, baseadas em informações genéticas e dados clínicos individualizados. Trata-se de um deslocamento que não apenas redefine os métodos de intervenção médica, mas também aprofunda o vínculo entre médicos e pacientes, tornando-o mais contínuo, colaborativo e mediado por tecnologias digitais de ponta.2
Essa transformação só se tornou possível a partir da convergência entre o uso massivo de dados em saúde e a aplicação de sistemas de inteligência artificial. A digitalização dos prontuários clínicos, armazenados em plataformas em nuvem, permite a formação de bancos de dados extensos e integrados. Simultaneamente, a interação cotidiana entre pacientes e dispositivos inteligentes - fenômeno conhecido como Internet das Coisas no contexto médico - contribui para a produção constante de informações biomédicas, que são processadas em tempo real. Nesse modelo, o paciente deixa de ser apenas receptor passivo dos cuidados e assume um papel protagonista na geração de dados e na construção de condutas clínicas, ao passo que instituições hospitalares tradicionais passam por um processo de reinvenção, ajustando-se a uma lógica mais tecnológica e centrada na individualidade.3
No âmbito da proteção de dados pessoais, o consentimento e a autodeterminação ocupam posição central, sendo amplamente reconhecido como um dos pilares fundamentais do tratamento legítimo de informações pessoais. Ainda que a intensidade da proteção jurídica atribuída a cada categoria de dados não dependa exclusivamente da vontade do titular, é o consentimento que legitima, em regra, a coleta e o tratamento desses dados. A legislação pode, excepcionalmente, prever hipóteses em que esse requisito é relativizado ou afastado, mas a vinculação entre o consentimento do titular e a licitude do processamento de dados permanece, de modo geral, como um elemento essencial e incontornável.4
A concepção de autodeterminação informacional como paradigma constitucional visa assegurar aos indivíduos o controle sobre suas informações pessoais, especialmente diante da crescente digitalização da vida e do uso intensivo de tecnologias informáticas. Esse modelo teórico encontra respaldo na jurisprudência alemã, em especial na histórica decisão do Tribunal Constitucional Federal que consagrou, como direito fundamental, a autodeterminação informacional, marcando um divisor de águas na proteção jurídica da privacidade frente aos avanços tecnológicos.5
Curiosamente, o Regulamento Geral sobre a Proteção de Dados da União Europeia (RGPD) não menciona explicitamente os termos "privacidade" ou "vida privada". Ainda assim, embora próximos, os conceitos de privacidade e proteção de dados não são sinônimos. Eles se entrelaçam e se complementam, sendo a proteção de dados uma ferramenta normativa essencial para garantir o exercício efetivo da privacidade, sobretudo em sua dimensão informacional. A privacidade, nesse aspecto, pode ser compreendida como a condição na qual os dados de um indivíduo permanecem inacessíveis - um estado de resguardo que engloba direitos fundamentais como a intimidade, a reclusão, a personalidade e o direito de ser deixado em paz.6
Já a proteção de dados configura-se como um regime jurídico autônomo, voltado à tutela dos direitos, liberdades e interesses dos titulares cujas informações pessoais são objeto de coleta, armazenamento, processamento, disseminação ou exclusão. Seu propósito não se limita à preservação da privacidade, mas também busca assegurar a equidade nos processos de tratamento de dados e, em certa medida, justiça nos efeitos produzidos por esse tratamento. Assim, embora seus objetivos ultrapassem os contornos tradicionais da privacidade, a proteção de dados desempenha um papel decisivo para a sua efetivação no contexto contemporâneo.7
Para Alexandre de Sousa Pinheiro as exceções à proibição do tratamento de dados pessoais constituem-se estruturalmente como causas de exclusão de ilicitude, no sentido em que os tratamentos de dados que seria ilícito cede perante a superioridade de um interesse proporcionalmente mais relevante que justifica assim o seu tratamento.8
Em vigor desde setembro de 2020, a Lei Geral de Proteção de Dados Pessoais (LGPD) estabelece que o tratamento de dados sensíveis, como os relativos à saúde, depende, via de regra, do consentimento expresso, livre, informado e específico do titular (arts. 5º, XIII e 11, I). Caso haja alteração na finalidade originalmente autorizada, o controlador deve comunicar previamente o titular, que poderá revogar o consentimento, conforme previsto no art. 9º, § 2º. A lei reforça, em diversos dispositivos, a exigência de finalidade determinada para todo tratamento de dados pessoais.9
Além disso, a LGPD consagra os princípios da boa-fé e da transparência (art. 6º, VI), que orientam a conduta ética no tratamento de informações, especialmente no contexto da saúde. Ainda que não haja exigência legal de consentimento para o tratamento de dados sensíveis por profissionais de saúde durante procedimentos clínicos, espera-se que essa atividade seja pautada pela confiança e clareza. Assim, à luz da boa-fé objetiva, o dever de informar pode ser atendido mediante a inclusão, no termo de consentimento livre e esclarecido, de disposições específicas sobre o uso de dados pessoais em ambientes digitais de saúde.10
Os dados sensíveis demandam um nível elevado de proteção, a fim de prevenir vazamentos, usos indevidos, exploração comercial ou práticas discriminatórias e ilícitas contra seus titulares. Contudo, a vedação absoluta ao seu tratamento seria impraticável, uma vez que, em determinadas situações, esse processamento é não apenas legítimo, mas indispensável. Além disso, organizações com fins políticos, religiosos ou filosóficos teriam sua própria funcionalidade comprometida caso fossem impedidas de coletar e tratar esse tipo de dado, essencial à sua atuação institucional.11
Relatório recente da Organização Mundial da Saúde (OMS) destaca que, embora a inteligência artificial represente avanços relevantes no campo da saúde, sua aplicação deve ser acompanhada de rigorosas reflexões éticas e regulamentares. A IA tem sido utilizada como ferramenta de apoio ao diagnóstico e à tomada de decisões clínicas, com especial destaque em áreas como Radiologia, Dermatologia, Patologia e sequenciamento genético voltado à imunoterapia. No entanto, a OMS aponta que ainda são escassas as validações clínicas prospectivas capazes de comprovar, de forma robusta, a eficácia desses sistemas em ambientes reais. Entre as preocupações levantadas, estão a variabilidade da performance algorítmica conforme o contexto geográfico e cultural, bem como o risco do chamado viés de automação - situação em que os profissionais de saúde, ao confiar excessivamente nos sistemas de IA, podem reduzir sua atuação crítica e desconsiderar as especificidades individuais dos pacientes.12
A ausência de transparência nos processos decisórios dos sistemas de inteligência artificial - frequentemente denominado problema da caixa-preta (black box problem) - representa um dos principais entraves à consolidação da confiança nessa tecnologia. Em contextos mais objetivos, como a rotulagem automatizada de imagens, essa opacidade pode ser minimizada, já que os resultados podem ser diretamente validados pelo usuário. No entanto, no campo da saúde, a simples aferição quantitativa do desempenho algorítmico não é suficiente: é imprescindível compreender os fundamentos lógicos das decisões sugeridas. Para que profissionais de saúde confiem em recomendações algorítmicas - como a prescrição de medicamentos ou a identificação de riscos específicos -, é essencial que se possa rastrear e interpretar os fenótipos e variáveis utilizados no processo preditivo. A explicabilidade do sistema, portanto, torna-se um elemento-chave na construção da confiabilidade clínica e na segurança das condutas médicas assistidas por IA.13
A opacidade nos processos decisórios da inteligência artificial revela-se especialmente crítica na área da saúde, onde as escolhas envolvem, muitas vezes, consequências de vida ou morte. Esse desafio torna-se ainda mais sensível quando a IA é empregada não apenas para auxiliar na triagem de pacientes em situações emergenciais, mas também para emitir diagnósticos clínicos diretos. Nesses casos, o profissional de saúde pode se ver diante de um impasse ético e técnico: confiar em sua própria avaliação, construída com base em experiência e intuição médica, ou seguir a orientação divergente apresentada por um sistema algorítmico. Tal dilema reforça a urgência de promover transparência, responsabilização e segurança no uso de tecnologias baseadas em inteligência artificial no setor médico.14
Segundo André Gonçalo Dias Pereira, a Medicina contemporânea vem sendo profundamente transformada pela convergência entre as ciências da computação e a economia digital. Tecnologias como inteligência artificial, prontuários eletrônicos, medicamentos personalizados, cirurgia robótica e big data aplicado à pesquisa genética estão moldando práticas clínicas mais precisas e individualizadas. No plano coletivo, a IA pode contribuir para a sustentabilidade dos sistemas públicos de saúde; no plano individual, fortalece a Medicina personalizada ao prever enfermidades e otimizar terapias. Esse movimento sinaliza a consolidação do modelo dos quatro "Ps" da nova medicina: preventiva, preditiva, personalizada e proativa. Apesar dos avanços, persistem obstáculos técnicos e humanos, como a carência de feedback tátil em procedimentos automatizados - essencial para avaliar tecidos com precisão - e a ausência de empatia nas máquinas, o que dificulta a humanização do cuidado e o vínculo com o paciente.15
A atribuição de responsabilidade civil em casos envolvendo sistemas de inteligência artificial tem gerado intensos debates na doutrina internacional. Autores como Samir Chopra e Laurence White defendem a possibilidade de reconhecimento de personalidade jurídica para agentes inteligentes dotados de elevada autonomia,16 enquanto Ugo Pagallo adota uma perspectiva tradicionalista, imputando a responsabilidade às pessoas que supervisionam ou operam tais sistemas.17 Em Portugal, Paulo Mota Pinto observa que o ordenamento jurídico atribui personalidade jurídica apenas a seres humanos e pessoas coletivas, compreendendo-a como a aptidão para ser titular de relações jurídicas.18 No entanto, o surgimento de tecnologias autônomas desafia esse modelo, suscitando propostas de adaptação normativa para lidar com condutas não humanas e redefinir as fronteiras da responsabilidade.
Diante dessa lacuna normativa, algumas correntes propõem analogias com a constituição de pessoas coletivas como alternativa para acomodar juridicamente os agentes artificiais. A responsabilidade civil, que tradicionalmente pressupõe dano, nexo causal e imputabilidade, passa a enfrentar novos contornos quando aplicada a sistemas de IA que operam com base em algoritmos de autoaprendizagem e decisões independentes. O desafio, portanto, está em conciliar inovação tecnológica com segurança jurídica, garantindo tanto o fomento ao desenvolvimento quanto a tutela efetiva dos direitos fundamentais em caso de danos.
Por outro lado, na União Europeia, o artigo 27.º do Regulamento (UE) 2024/1689, o AI Act, ao impor a realização de avaliações de impacto sobre os direitos fundamentais previamente à implementação de sistemas de IA de alto risco, constitui um relevante mecanismo de prevenção de danos e de mitigação dos riscos associados à utilização de tais tecnologias. Essa lógica aproxima-se da matriz da responsabilidade civil pelo risco, amplamente discutida na doutrina civilista, em que a assunção de determinadas atividades potencialmente perigosas gera, para quem delas beneficia ou as controla, um dever acrescido de tutela de interesses alheios. Assim, mais do que um mero cumprimento formal, a avaliação de impacto configura-se como instrumento que densifica o dever de cuidado, funcionando como critério de imputação objetiva na eventualidade de danos decorrentes do uso da IA, nos termos do modelo de alocação de riscos que vem ganhando relevo na responsabilidade extracontratual moderna. Ao incluir, no seu âmbito, entidades públicas e privadas que prestem serviços essenciais, o Regulamento revela uma clara orientação personalística, em que a salvaguarda dos direitos fundamentais prevalece sobre a mera eficiência tecnológica, projetando, no domínio da IA, a função preventiva e redistributiva da responsabilidade civil.19
No Brasil, o PL 2338/23, foi aprovado pelo Senado Federal, apresentou no Art. 13 estabelece que todo sistema de inteligência artificial deve, previamente à sua colocação no mercado ou utilização, ser submetido a uma avaliação preliminar de risco pelo fornecedor, com registro e documentação para fins de responsabilização. Esta avaliação abrange, inclusive, sistemas de propósito geral, devendo considerar suas finalidades ou aplicações. A autoridade competente pode reclassificar o sistema e determinar a realização de avaliação de impacto algorítmico, especialmente quando identificado como de alto risco, hipótese em que se tornam obrigatórias medidas adicionais de governança, sem prejuízo da aplicação de sanções em caso de avaliações fraudulentas ou incompletas.20 Porém o mesmo projeto está sob apreciação da Câmara dos Deputados e não houve avanço até a publicação desse texto.
Outro ponto crucial na discussão diz respeito à qualidade e à confiabilidade dos dados utilizados e gerados por esses sistemas. Mafalda Miranda Barbosa identifica dois tipos principais de dificuldade: a corrupção dos dados de entrada, cuja origem pode ser incerta e não atribuível diretamente a usuários, distribuidores ou fabricantes; e a produção de dados potencialmente imprecisos por sistemas autônomos, resultado de processos de autoaprendizagem.21 Essas limitações comprometem a previsibilidade e a rastreabilidade das decisões algorítmicas, tornando ainda mais complexa a atribuição de responsabilidade civil e exigindo novos parâmetros legais e técnicos para garantir transparência, justiça e reparação adequada.
A incorporação da inteligência artificial na saúde representa um avanço inegável, mas exige reflexão jurídica contínua e cuidadosa. A complexidade técnica desses sistemas, associada à sensibilidade dos dados e à dimensão humana dos cuidados médicos, impõe desafios que ultrapassam o campo tecnológico e alcançam princípios fundamentais do Direito. A transparência algorítmica, a proteção de dados pessoais e a responsabilidade civil diante de danos causados por decisões automatizadas devem caminhar lado a lado com a inovação. É imperativo que o Direito não apenas acompanhe essa transformação, mas também atue como força modeladora, assegurando que os benefícios da IA em saúde sejam amplamente distribuídos e que seus riscos sejam eticamente controlados e juridicamente reparáveis.
__________
1 KFOURI NETO, Miguel; NOGAROLI, Rafaella. Inteligência Artificial nas Decisões Clínicas e a Responsabilidade Civil Médica por Eventos Adversos no Contexto dos Hospitais Virtuais. In: BARBOSA, Mafalda Miranda; NETTO, Felipe Braga; SILVA, Michael César; FALEIROS JÚNIOR, José Luiz de Moura. Direito digital e inteligência artificial: diálogos entre Brasil e Europa. Indaiatuba: Editora Foco, 2021. Página 1081.
2 Idem.
3 Idem.
4 MIRADA, Jorge; MEDEIROS, Ruy. Constituição Portuguesa Anotada. Volume I, 2ª ed., Revista - Lisboa: Universidade Católica Editora, 2017. Página 572.
5 Idem. Página 568.
6 DOVE, Edward S. The EU General Data Protection Regulation: Implications for International Scientific Research in the Digital Era: Currents in Contemporary Bioethics. Journal of Law, Medicine and Ethics, 2018. Página 1014.
7 Idem.
8 PINHEIRO, Alexandre Sousa (Coord.); COELHO, Cristina Pimenta; DUARTE, Tatiana; GONÇALVES, Carlos Jorge; GONÇALVES, Catarina Pina. Comentários ao Regulamento Geral de Proteção de Dados. Coimbra: Almedina, 2018. Página 238.
9 KFOURI NETO, Miguel; NOGAROLI, Rafaella. Inteligência Artificial nas Decisões Clínicas e a Responsabilidade Civil Médica por Eventos Adversos no Contexto dos Hospitais Virtuais, cit., Página 1102 e 1103.
10 Idem.
11 TEFFÉ, C. S. DE; VIOLA, M. Tratamento de dados pessoais na LGPD: estudo sobre as bases legais. civilistica.com, v. 9, n. 1, p. 1-38, 9 maio 2020. Páginas 37 e 38.
12 WORLD HEALTH ORGANIZATION. Ethics and governance of artificial intelligence for health: large multi-modal models. WHO guidance. World Health Organization, 2024.
13 MIOTTO, Riccardo et al. Deep learning for healthcare: review, opportunities and challenges. Briefings in bioinformatics, v. 19, n. 6, p. 1236-1246, 2018.
14 NOGAROLI, Rafaella; SILVA, Rodrigo da Guia. Inteligência artificial na análise diagnóstica: benefícios, riscos e responsabilidade do médico. Debates contemporâneos em direito médico e da saúde. Thomson Reuters Brazil, São Paulo, p. 69-91, 2020.
15 PEREIRA, André Gonçalo Dias. Inteligência Artificial, Saúde e Direito: considerações jurídicas em torno da medicina de conforto e da medicina transparente. Julgar, n. 45, p. 235-262, 2021.
16 CHOPRA, Samir; WHITE, Laurence F. A legal theory for autonomous artificial agents. University of Michigan Press, 2011.
17 PAGALLO, Ugo. The laws of robots: Crimes, contracts, and torts. Springer Science & Business Media, 2013.
18 DA MOTA PINTO, Carlos Alberto; MONTEIRO, António Pinto; DA MOTA PINTO, Paulo Cardoso Correia. Teoria geral do direito civil. Coimbra editora, 2005.
19 UNIÃO EUROPEIA. Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024, que cria regras harmonizadas em matéria de inteligência artificial e que altera os Regulamentos (CE) n.º 300/2008, (UE) n.º 167/2013, (UE) n.º 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e as Diretivas 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (Regulamento da Inteligência Artificial) (Texto relevante para efeitos do EEE). Jornal Oficial da União Europeia: JO L, PE/24/2024/REV/1, 12 jul. 2024. Disponível aqui.
20 BRASIL. PL 2.338, de 2023. Dispõe sobre o uso da inteligência artificial no Brasil e estabelece princípios, direitos e deveres para seu desenvolvimento e aplicação. Disponível aqui.
21 BARBOSA, Mafalda Miranda. Do nexo de causalidade ao nexo de imputação: Contributo para a compreensão da natureza binária e personalística do requisito causal ao nível da Responsabilidade Civil Extracontratual, Principia, 2013.