COMPARTILHAR | IMPRIMIR | O EMAIL
Minha experiência na área médica me permite distinguir entre inovação genuína e reclassificação sutil que altera fundamentalmente a prática, embora aparente não ter sofrido alterações. A inteligência artificial tem atraído considerável atenção recentemente, incluindo a afirmação amplamente divulgada de que a IA foi “legalmente autorizada a praticar medicina” nos Estados Unidos. Interpretada literalmente, essa afirmação é imprecisa. Nenhum conselho médico licenciou uma máquina. Nenhum algoritmo prestou juramento, aceitou dever fiduciário ou assumiu responsabilidade pessoal por danos a pacientes. Nenhum médico robô está abrindo uma clínica, faturando para seguradoras ou comparecendo perante um júri em um processo por negligência médica.
No entanto, parar nessa observação significa ignorar a questão mais ampla. Os conceitos jurídicos de responsabilidade estão sendo redefinidos atualmente, muitas vezes sem o conhecimento do público.
Uma transformação significativa está em curso, que exige mais do que uma rejeição automática ou um entusiasmo tecnológico acrítico. O desenvolvimento atual não se resume à legalização da inteligência artificial como médica, mas sim à erosão gradual da fronteira central da medicina: o vínculo intrínseco entre o julgamento clínico e a responsabilidade humana. O julgamento clínico envolve a tomada de decisões informadas, adaptadas às necessidades e circunstâncias únicas de cada paciente, exigindo empatia, intuição e uma profunda compreensão da ética médica.
A responsabilidade humana refere-se à responsabilidade que os profissionais de saúde assumem por essas decisões e seus resultados. Essa erosão não resulta de legislação drástica ou debate público, mas ocorre silenciosamente por meio de programas-piloto, reinterpretações regulatórias e linguagem que obscurece intencionalmente a responsabilidade. Uma vez que essa fronteira se dissolve, a medicina se transforma de maneiras difíceis de reverter.
A principal preocupação não é se a IA consegue renovar receitas ou detectar resultados anormais de exames laboratoriais. A medicina utiliza ferramentas há muito tempo, e os profissionais de saúde geralmente acolhem bem qualquer auxílio que reduza tarefas administrativas ou aprimore o reconhecimento de padrões. A verdadeira questão é se o julgamento médico — a decisão sobre as ações corretas, os pacientes e os riscos — pode ser visto como um resultado gerado por computador, dissociado da responsabilidade moral. Historicamente, as tentativas de desvincular o julgamento da responsabilidade muitas vezes causaram danos sem que se assumisse a responsabilidade por eles.
Desenvolvimentos recentes esclarecem as origens da confusão atual. Em diversos estados, programas-piloto limitados agora permitem que sistemas baseados em IA auxiliem na renovação de prescrições para doenças crônicas estáveis, seguindo protocolos bem definidos. Em nível federal, propostas legislativas têm considerado se a inteligência artificial poderia ser considerada um "profissional de saúde" para fins legais específicos, desde que seja devidamente regulamentada. Essas iniciativas são geralmente apresentadas como respostas pragmáticas à escassez de médicos, atrasos no acesso a serviços e ineficiências administrativas. Embora nenhuma delas designe explicitamente a IA como médica, em conjunto, elas normalizam a premissa mais preocupante de que ações médicas podem ocorrer sem um tomador de decisão humano claramente identificável.
Na prática, essa distinção é fundamental. A medicina se define não pela execução mecânica de tarefas, mas pela atribuição de responsabilidade quando os resultados são desfavoráveis. Prescrever um medicamento é simples; assumir a responsabilidade por suas consequências — especialmente ao considerar comorbidades, contexto social, valores do paciente ou informações incompletas — é muito mais complexo. Ao longo da minha carreira, essa responsabilidade sempre recaiu sobre um ser humano que podia ser questionado, desafiado, corrigido e responsabilizado. Quando o Dr. Smith comete um erro, a família sabe a quem contatar, garantindo um canal direto para a responsabilização humana. Nenhum algoritmo, por mais sofisticado que seja, pode desempenhar esse papel.
O principal risco não é tecnológico, mas sim regulatório e filosófico. Essa transição representa uma mudança da ética da virtude para o procedimentalismo. Quando legisladores e instituições redefinem a tomada de decisões médicas como uma função de sistemas, em vez de atos individuais, a estrutura moral da medicina se altera. A responsabilidade torna-se difusa, o dano é mais difícil de atribuir e a responsabilidade passa dos médicos para os processos, do julgamento para a adesão ao protocolo. Quando erros inevitavelmente ocorrem, a explicação predominante passa a ser a de que "o sistema seguiu as diretrizes estabelecidas". Reconhecer essa transição esclarece a mudança da tomada de decisões éticas individualizadas para a conformidade procedimental mecanizada.
Essa preocupação não é teórica. O sistema de saúde contemporâneo já enfrenta desafios relacionados à diluição da responsabilidade. Tenho observado pacientes prejudicados por decisões algorítmicas se perderem em meio a administradores, fornecedores e modelos opacos, sem uma resposta clara para a pergunta fundamental: Quem tomou essa decisão? A inteligência artificial acelera significativamente esse problema. Um algoritmo não pode fornecer explicações morais, exercer contenção com base na consciência, recusar ações devido a preocupações éticas ou admitir erros a um paciente ou família.
Os defensores do aumento da autonomia da IA frequentemente citam a eficiência como justificativa. Clínicas estão sobrecarregadas, médicos sofrem de esgotamento profissional e pacientes muitas vezes esperam meses por cuidados que deveriam levar apenas minutos. Essas preocupações são legítimas e qualquer profissional de saúde honesto as reconhece. No entanto, a eficiência por si só não justifica a alteração dos fundamentos éticos da medicina. Sistemas otimizados para velocidade e escala muitas vezes sacrificam nuances, discrição e dignidade individual. Historicamente, a medicina resistiu a essa tendência enfatizando que o cuidado é fundamentalmente uma relação, e não uma transação.
A inteligência artificial corre o risco de inverter essa relação. Quando os sistemas, em vez dos indivíduos, prestam cuidados, o paciente deixa de estar vinculado a um profissional de saúde e passa a fazer parte de um fluxo de trabalho. O médico assume o papel de supervisor da máquina ou, o que é mais preocupante, serve como um amortecedor legal, absorvendo a responsabilidade por decisões que não foram tomadas pessoalmente. Com o tempo, o julgamento clínico cede lugar à adesão a protocolos, e a autonomia moral diminui gradualmente.
A IA também introduz um problema mais sutil e perigoso: o mascaramento da incerteza. A medicina vive na ambiguidade. As evidências são probabilísticas. As diretrizes são provisórias. Os pacientes raramente se apresentam como conjuntos de dados limpos. Os médicos são treinados não apenas para agir, mas para hesitar — para reconhecer quando a informação é insuficiente, quando a intervenção pode causar mais danos do que benefícios ou quando o curso adequado é esperar. Imagine um cenário em que a IA recomenda a alta, mas o cônjuge do paciente demonstra medo, evidenciando a tensão entre a tomada de decisão algorítmica e a intuição humana. Esse atrito no mundo real ressalta a importância da ambiguidade.
Os sistemas de IA não experimentam incerteza; eles geram resultados. Quando incorretos, muitas vezes o fazem com uma confiança injustificada. Essa característica não é uma falha de programação, mas sim uma característica inerente à modelagem estatística. Ao contrário de clínicos experientes que expressam abertamente suas dúvidas, grandes modelos de linguagem e sistemas de aprendizado de máquina não conseguem reconhecer suas próprias limitações. Eles produzem respostas plausíveis mesmo quando os dados são insuficientes. Na medicina, plausibilidade sem comprovação pode ser perigosa.
À medida que esses sistemas são integrados mais cedo nos fluxos de trabalho clínicos, seus resultados influenciam cada vez mais as decisões subsequentes. Com o tempo, os médicos podem começar a confiar nas recomendações não por sua validade, mas porque elas se tornaram rotineiras. O julgamento gradualmente passa do raciocínio ativo para a aceitação passiva. Nessas circunstâncias, a presença humana no processo serve como pouco mais do que uma salvaguarda simbólica.
Defensores da IA frequentemente afirmam que ela apenas "aumentará" o trabalho dos médicos, e não os substituirá. No entanto, essa garantia é frágil. Uma vez que a IA demonstre ganhos de eficiência, as pressões econômicas e institucionais tendem a impulsionar uma maior autonomia. Se um sistema puder renovar prescrições com segurança, em breve poderá ser autorizado a iniciá-las. Se puder diagnosticar com precisão doenças comuns, a necessidade de revisão médica será questionada. Se superar os humanos em testes controlados, a tolerância à variabilidade humana diminuirá.
Diante dessas tendências, a implementação de salvaguardas específicas é essencial. Por exemplo, auditorias obrigatórias de discrepância em 5% das decisões baseadas em IA poderiam servir como uma verificação concreta, garantindo o alinhamento entre as recomendações da IA e o julgamento clínico humano, ao mesmo tempo que fornecem aos órgãos reguladores e conselhos hospitalares métricas acionáveis para monitorar a integração da IA.
Essas perguntas não são feitas com má intenção; elas surgem naturalmente em sistemas focados na contenção de custos e na escalabilidade. No entanto, elas indicam um futuro onde o julgamento humano se torna a exceção, e não a regra. Nesse cenário, indivíduos com recursos continuarão a receber atendimento humano, enquanto outros serão encaminhados por processos automatizados. A medicina de duas categorias resultará não de uma ideologia, mas da otimização.
O que torna este momento especialmente precário é a ausência de linhas claras de responsabilidade. Quando uma decisão baseada em IA prejudica um paciente, quem é o responsável? O médico que supervisiona o sistema nominalmente? A instituição que o implementou? O fornecedor que treinou o modelo? O órgão regulador que aprovou seu uso? Sem respostas explícitas, a responsabilidade se dissipa. E quando a responsabilidade se dissipa, a confiança logo a segue.
A medicina depende fundamentalmente da confiança. Os pacientes depositam seus corpos, seus medos e, muitas vezes, suas vidas nas mãos dos médicos. Essa confiança não pode ser transferida para um algoritmo, por mais sofisticado que seja. Ela se fundamenta na certeza de que um ser humano está presente — alguém capaz de ouvir, adaptar-se e ser responsável por seus atos.
Rejeitar completamente a inteligência artificial é desnecessário. Quando usada criteriosamente, a IA pode reduzir a carga de trabalho administrativa, identificar padrões que podem escapar à detecção humana e auxiliar na tomada de decisões clínicas. Ela pode permitir que os médicos dediquem mais tempo ao cuidado do paciente em vez de tarefas administrativas. No entanto, concretizar esse futuro exige um compromisso claro com a manutenção da responsabilidade humana no cerne da prática médica.
A intervenção humana deve significar mais do que uma supervisão simbólica. Deve exigir que um indivíduo específico seja responsável por cada decisão médica, compreenda a sua lógica e detenha tanto a autoridade quanto a obrigação de anular recomendações algorítmicas. Deve também implicar transparência, explicabilidade e consentimento informado do paciente, bem como um compromisso de investir em médicos humanos em vez de os substituir por IA.
O principal risco não reside no poder excessivo da inteligência artificial, mas sim na disposição das instituições em abdicar da responsabilidade. Na busca por eficiência e inovação, corre-se o risco de a medicina se tornar uma área tecnicamente avançada e administrativamente simplificada, porém desprovida de substância moral.
Ao considerarmos o futuro, é essencial perguntar: Que tipo de profissional de saúde imaginamos à beira do leito em 2035? Essa questão exige imaginação moral coletiva, incentivando-nos a moldar um futuro onde a responsabilidade humana e o cuidado compassivo permaneçam no centro da prática médica. Mobilizar a ação coletiva será crucial para garantir que os avanços na inteligência artificial aprimorem, em vez de minarem, esses valores fundamentais.
A inteligência artificial não foi licenciada para praticar medicina. Mas a medicina está sendo silenciosamente reestruturada em torno de sistemas que não possuem peso moral. Se esse processo continuar sem controle, poderemos um dia descobrir que o médico não foi substituído por uma máquina, mas por um protocolo — e que, quando ocorrer um dano, não haverá ninguém para responsabilizá-lo.
Isso não seria progresso. Seria uma abdicação.
-
Dr. Joseph Varon, é médico intensivista, professor e presidente da Independent Medical Alliance. É autor de mais de 980 publicações revisadas por pares e editor-chefe do Journal of Independent Medicine.
Ver todos os posts