Doutor GPT: por que estudo contraindica usar IA para orientações médicas?
Os sistemas de IA ainda não são confiáveis para orientar decisões clínicas e podem levar usuários a escolhas equivocadas

O uso de chatbots baseados em Inteligência Artificial (IA) para esclarecer dúvidas sobre sintomas e possíveis diagnósticos cresce a cada dia. Porém, um estudo recente da Revista Nature reforça algo que muitos profissionais de saúde ao redor do globo vem tentando alertar: esses sistemas ainda não são confiáveis para orientar decisões clínicas e podem levar usuários a escolhas equivocadas.
Mais de 40 milhões de pessoas recorrem ao Chat GPT diariamente para aconselhamento de saúde, dúvidas sobre sintomas e informações médicas, segundo dados da própria Open AI. Porém, quando confrontados com situações reais, esses modelos podem gerar respostas que confundem ou induzem erros.
Leia também: Usar IA gasta água? Entenda o que são os data centers e como funcionam
ESTUDO INTERNACIONAL REFORÇA LIMITAÇÕES
A pesquisa foi conduzida por cientistas do Oxford Internet Institute e do Nuffield Department of Primary Care Health Sciences, em parceria com instituições internacionais. O objetivo foi avaliar a confiabilidade dos grandes modelos de linguagem como assistentes médicos para a população.
Apesar de apresentarem alto desempenho em provas padronizadas de conhecimento clínico, os sistemas não demonstraram a mesma eficácia em interações reais. Em um ensaio randomizado com cerca de 1.300 participantes, os voluntários analisaram situações médicas simuladas e decidiram qual atitude tomar, como procurar atendimento emergencial ou esperar.
Os resultados indicaram que quem utilizou chatbots não tomou decisões mais adequadas do que aqueles que recorreram a pesquisas tradicionais ou ao próprio julgamento. Em alguns casos, as orientações chegaram a dificultar o entendimento da gravidade do quadro.
Leia também: CEO da Open IA pede regularização da ferramenta; veja
PRINCIPAIS PROBLEMAS IDENTIFICADOS
Os pesquisadores destacaram três problemas centrais que explicam os riscos do uso dessas ferramentas na saúde:
- dificuldade dos usuários em informar dados clínicos relevantes
- grande variação das respostas com pequenas mudanças nas perguntas
- mistura de informações corretas e incorretas, o que compromete a decisão
Essas limitações são consideradas críticas principalmente em casos de urgência, quando atrasos no atendimento podem gerar consequências graves.
Outro ponto levantado é que os métodos atuais de avaliação da IA não refletem o uso cotidiano. Para os autores, sistemas voltados à saúde deveriam passar por testes rigorosos com usuários reais, assim como ocorre com medicamentos.
FALHAS NO SISTEMA DE SAÚDE CONTRIBUEM PARA ESTE CENÁRIO
No Brasil, o cenário de acesso desigual à saúde ajuda a explicar a busca por soluções digitais. Estimativas do Instituto de Estudos para Políticas de Saúde (IEPS) e a Umane, em parceria com pesquisadores da UFPel e FGV, revelou que cerca de 34% da população brasileira (aproximadamente 72,6 milhões de pessoas) não possui acesso adequado à atenção básica.
Essas pessoas sofrem para marcar consultas, sofrem com a falta de médicos e especialistas, com diagnóstico tardio e com a sobrecarga do sistema público
Diante desse cenário, a IA surge como alternativa imediata, disponível a qualquer hora e sem custo. Para muitos usuários, a tecnologia preenche lacunas emocionais e de informação, criando a sensação de escuta e cuidado.
Leia também: Minha Casa, Minha Vida amplia alcance para quem ganha até este valor por mês; veja quanto
Embora não possuam emoções reais, sistemas de IA são treinados para simular empatia. Eles identificam sinais emocionais e respondem de forma acolhedora, criando a percepção de cuidado. Esse fator psicológico tem papel importante na popularização dessas ferramentas.
Especialistas ressaltam que, apesar do potencial educacional e de triagem inicial, chatbots de IA não substituem profissionais de saúde. A falta de responsabilidade clínica, análise de exames e avaliação presencial limita o uso seguro dessas ferramentas.
Leia também: Caixa começa pagamentos de abono salarial; se atente a golpes