Por que a IA não é confiável para receitar medicamentos sozinha
Mesmo com dados e recursos ilimitados, falhas podem ser inerentes aos sistemas, o que desafia o uso da IA na medicina

Na última década, o sucesso da inteligência artificial alimentou um entusiasmo exagerado e afirmações ousadas, apesar de os usuários frequentemente se depararem com erros cometidos por esses sistemas.
Um chatbot pode inventar fatos, ou um aplicativo de navegação baseado em IA pode orientar motoristas a atravessar um milharal, tudo isso sem sequer reconhecer que errou.
As pessoas toleram esses equívocos porque a tecnologia torna determinadas tarefas mais eficientes. Cada vez mais, porém, defensores da IA vêm propondo seu uso – às vezes com supervisão humana limitada – em áreas nas quais os erros têm custo elevado, como a saúde.
- Doenças raras: estudo mostra como IA pode apoiar médicos no diagnóstico; entenda
- IA não substitui os médicos, mas pode fazer diagnósticos mais precisos que eles
- Estetoscópio do futuro: como a IA pode revolucionar os diagnósticos cardíacos
- Em breve, cuidados com as gestantes serão baseados em previsão e prevenção
Um exemplo é um projeto de lei apresentado na Câmara dos Representantes dos Estados Unidos no início de 2025 que permitiria a sistemas de IA receitar medicamentos de forma autônoma. Desde então, pesquisadores da área da saúde e parlamentares debatem se esse tipo de prescrição seria viável ou aconselhável.
Ainda não está claro como exatamente isso funcionaria caso essa legislação (ou algo semelhante) seja aprovada. Mas a proposta eleva o patamar do debate: quantos erros os desenvolvedores de IA podem permitir que suas ferramentas cometam? E quais seriam as consequências se essas falhas levassem a desfechos negativos, inclusive à morte de pacientes?
No caso específico da IA, os erros podem ser uma consequência inevitável do modo como esses sistemas funcionam. Pesquisas conduzidas em meu laboratório indicam que determinadas propriedades dos dados usados para treinar modelos de IA desempenham um papel central nesse problema.
É improvável que isso mude, independentemente de quanto tempo, esforço e financiamento sejam direcionados ao aprimoramento desses modelos.
NINGUÉM (NEM A IA) É PERFEITO
Em um estudo publicado em julho de 2025, demonstramos que organizar perfeitamente certos conjuntos de dados em categorias bem definidas pode ser impossível.
Em outras palavras, pode haver um nível mínimo de erros que um determinado conjunto de dados inevitavelmente vai produzir, simplesmente porque elementos de muitas categorias se sobrepõem. Em alguns casos, a IA não terá desempenho melhor do que o mero acaso.
Por exemplo, um modelo treinado com um conjunto de dados de milhões de cães que registra apenas idade, peso e altura provavelmente vai conseguir distinguir chihuahuas de dogues alemães com precisão. Mas pode cometer erros ao tentar diferenciar um malamute de um pinscher, já que indivíduos de espécies distintas podem se enquadrar nas mesmas faixas de idade, peso e altura.

Usando dados de mais de meio milhão de estudantes que frequentaram a Universidade Nacional Autônoma do México entre 2008 e 2020, buscamos resolver um problema aparentemente simples: seria possível usar um algoritmo de IA para prever quais estudantes concluiriam seus cursos universitários dentro do prazo – ou seja, em três, quatro ou cinco anos, dependendo da graduação?
Testamos vários algoritmos populares usados para classificação em IA e também desenvolvemos um modelo próprio. Nenhum deles foi perfeito. Os melhores – inclusive um criado especificamente para essa tarefa – alcançaram uma taxa de acerto de cerca de 80%, o que significa que pelo menos um em cada cinco estudantes foi classificado incorretamente.
ainda é cedo demais para permitir que a IA receite medicamentos sem supervisão humana.
Percebemos que muitos estudantes eram idênticos em termos de notas, idade, gênero, condição socioeconômica e outras características. Ainda assim, alguns se formavam no prazo e outros não. Nessas circunstâncias, nenhum algoritmo seria capaz de fazer previsões perfeitas.
Pode parecer que mais dados melhorariam a capacidade de previsão, mas isso geralmente traz retornos decrescentes. Isso significa que, por exemplo, para cada aumento de 1% na precisão, pode ser necessário 100 vezes mais dados. Assim, jamais teríamos estudantes suficientes para melhorar significativamente o desempenho do modelo.
Além disso, muitos acontecimentos imprevisíveis na vida dos estudantes e de suas famílias – desemprego, morte, gravidez – podem ocorrer após o primeiro ano de universidade, afetando diretamente a chance de conclusão no prazo. Portanto, mesmo com um número infinito de estudantes, nossas previsões continuariam apresentando erros.
OS LIMITES DA PREVISÃO
De forma mais ampla, o que limita a previsão é a complexidade. A palavra complexidade vem do latim plexus, que significa “entrelaçado”. Os componentes que formam um sistema complexo estão interligados: são as interações entre eles que determinam o que acontece e como se comportam.
Assim, estudar os elementos de um sistema de forma isolada provavelmente produzirá conclusões enganosas, tanto sobre esses elementos quanto sobre o sistema como um todo.
Considere, por exemplo, um carro circulando por uma cidade. Conhecendo sua velocidade, seria teoricamente possível prever onde ele estará em determinado momento. Mas, no trânsito real, essa velocidade depende das interações com outros veículos.
Como os detalhes dessas interações surgem no momento e não podem ser conhecidos com antecedência, prever com precisão o que acontecerá com o carro só é possível alguns minutos à frente.
QUESTÃO DE SAÚDE
Esses mesmos princípios se aplicam à prescrição de medicamentos. Diferentes condições e doenças podem apresentar os mesmos sintomas e pessoas com a mesma enfermidade podem manifestá-los de formas diferentes.
Por exemplo, uma febre pode ser causada por uma doença respiratória ou digestiva. Um resfriado pode provocar tosse, mas nem sempre. Isso significa que conjuntos de dados na área da saúde apresentam sobreposições importantes, o que impede que a IA seja livre de erros.
É claro que humanos também cometem erros. Mas se uma IA dá um diagnóstico incorreto para um paciente, a situação entra em um limbo jurídico. Não está claro quem ou o que seria responsabilizado se um paciente fosse prejudicado: empresas farmacêuticas? Desenvolvedores de software? Planos de saúde? Farmácias?

Em muitos contextos, nem humanos nem máquinas são a melhor opção isoladamente. A chamada “inteligência híbrida” – a combinação de pessoas e máquinas – tende a produzir resultados melhores do que cada uma por conta própria.
Um médico pode, por exemplo, usar IA para avaliar medicamentos potenciais para diferentes pacientes, com base em histórico médico, características fisiológicas e perfil genético. Pesquisadores já exploram essa abordagem na medicina de precisão.
Mas o bom senso e o princípio da precaução indicam que ainda é cedo demais para permitir que a IA receite medicamentos sem supervisão humana. O fato de que os erros podem estar incorporados à própria tecnologia sugere que, quando a saúde das pessoas está em jogo, a supervisão humana sempre será necessária.