LLMs podem moldar o futuro da medicina – para o bem e para o mal

Embora IAs como o ChatGPT sejam promissoras, também têm desvantagens, especialmente quando se trata da desigualdade na área da saúde

Créditos: Yusuf Çelik/ Pexels/ AndreyPopov/ iStock

Josh Tamayo-Sarver 5 minutos de leitura

“Então, o que o traz à emergência nesta sexta-feira à noite?”, pergunto ao paciente.

“Estou com dor nas costas”, diz o senhor de 82 anos. “Piorou recentemente.”

Achei a resposta interessante – especialmente porque esse paciente me disse exatamente a mesma coisa há alguns dias.

Desde que comecei a usar o ChatGPT durante meus plantões, percebi que ele é bastante limitado e não deveria ser usado como a única ferramenta de diagnóstico, mas é extremamente valioso para ajudar a explicar termos médicos complexos aos pacientes.

99% do atendimento médico envolve descobrir o que um paciente verdadeiramente precisa.

Nesse processo, também percebi o quanto meu trabalho já está alinhado com os grandes modelos de linguagem (LLMs, na sigla em inglês) e como ele pode evoluir junto com a IA – desde que o componente humano continue sendo a parte principal.

Isso porque, embora programas como o ChatGPT sejam promissores para o futuro da medicina, eles também apresentam algumas desvantagens preocupantes, especialmente quando se trata da divisão de classes na área da saúde.

Para explicar melhor o que quero dizer, falarei um pouco sobre como a medicina é praticada de fato – e como os LLMs podem tanto complementar quanto dificultar o tratamento.

NECESSIDADES NÃO QUANTIFICÁVEIS

A maior parte do atendimento médico envolve descobrir o que o paciente realmente precisa – o que geralmente é muito diferente do que eles dizem precisar.

Por exemplo, se eu fosse dono de uma concessionária e um cliente me dissesse que precisa de um carro novo, tentaria convencê-lo a comprar a opção mais cara. Certamente não diria: “será que você realmente precisa de um carro novo?”

Isso me faz lembrar do paciente idoso que reclamava de dor nas costas.

“Quando a dor começou?”, perguntei a ele.

“Há 17 anos”, respondeu. Então, começou a falar sobre seus filhos adultos que raramente o visitam.

Após mais algumas perguntas, o diagnóstico mais provável ficou claro: solidão crônica.

Crédito: Freepik

Esta é uma condição muito comum, especialmente entre idosos. Eles podem chegar à emergência reclamando de um problema físico, mas, muitas vezes, na realidade, estão buscando conexão humana.

Quando não conseguem suprir suas necessidades emocionais básicas em nenhum outro lugar – e muito menos na sociedade como um todo – o pronto-socorro é, frequentemente, o lugar ao qual as pessoas recorrem.

Mas geralmente a queixa expressa pelo paciente não é sua necessidade real. Ele pode chegar reclamando de tosse. Será que precisa de um exame para tuberculose? Ou de uma radiografia? Será que essa tosse é um sinal de alguma doença autoimune? Ou o paciente apenas precisa de um atestado médico para apresentar no trabalho? 99% do atendimento médico envolve descobrir o que um paciente verdadeiramente precisa.

As startups de tecnologia em saúde, especialmente aquelas que esperam aproveitar a tecnologia LLM, muitas vezes não percebem essa distinção. Tratar a saúde como uma necessidade de consumo é um erro grave.

os LLMs se tornarão, em algum momento, uma ferramenta importante entre as muitas que usamos para chegar a um diagnóstico.

Isso não significa que os LLMs não tenham um papel no futuro da medicina. Como médico, cuidar de um paciente depende da minha capacidade de interpretar o que ele me diz e transformar isso em uma narrativa médica coerente, alinhada com seus sintomas físicos. De muitas maneiras, nosso papel é o mesmo de um engenheiro de prompt altamente treinado.

Em meus últimos plantões na emergência, depois de inserir prompts detalhados e cuidadosamente escritos sobre meus pacientes, pude descobrir possíveis diagnósticos e obter novas informações por meio do ChatGPT.

Minhas experiências indicam que os LLMs se tornarão, em algum momento, uma ferramenta importante entre as muitas que usamos para chegar a um diagnóstico. Mas também aumentam minhas preocupações de que a IA, se mal implementada, possa piorar os resultados para muitos pacientes.

CLASSE SOCIAL E NÍVEL DE EDUCAÇÃO

Com o tempo, serão desenvolvidos sistemas nos quais médicos/enfermeiros poderão inserir suas conversas com pacientes em um grande modelo de linguagem, junto com seus históricos, para produzir uma lista de todos os possíveis diagnósticos a serem investigados.

Mas, como os LLMs são imprevisíveis e pouco confiáveis, suspeito que será necessário integrá-los a um programa de IA intermediário (em essência, uma inteligência artificial para verificar outra).

O nível de educação (e, por extensão, o contexto econômico e social) influencia o quão detalhado e claro um paciente é ao falar de seus sintomas.

Estou animado com esse potencial futuro para a área da saúde, pois nos permitirá tratar um número maior de pacientes de forma mais eficiente e em grande escala. Quanto mais dados forem inseridos em um sistema como esse, mais eficaz ele se tornará.

No entanto, também estou preocupado com a possibilidade de os LLMs agravarem ainda mais as desigualdades no sistema de saúde. Por exemplo, se você perguntar ao ChatGPT-4 sobre dor no peito, mas disser apenas: “meu peito dói – o que devo fazer?”, receberá uma resposta de 64 palavras.

Com perguntas mais sofisticadas, o bot é capaz de detalhar em mais de 300 palavras “cinco possibilidades que você poderia discutir com seu médico”. Essas duas respostas ilustram minha preocupação com o aumento do uso dos LLMs na área da saúde.

O nível de educação (e, por extensão, o contexto econômico e social) influencia fortemente o quão detalhado e claro um paciente é ao falar de seus sintomas. Muitas culturas ao redor do mundo consideram reclamar da saúde física um sinal de vaidade ou de falta de fé. Pessoas criadas dentro de papéis de gênero tradicionais também hesitam em falar abertamente sobre seus sintomas, por várias razões.

Por esse motivo, temo que a qualidade do atendimento seja muito melhor para aqueles com maior nível de educação. Para evitar isso, precisaremos nos esforçar para criar sistemas que ajudem pacientes de todas as origens a criar prompts eficazes, de modo que todos possam se beneficiar do poder dos LLMs.


SOBRE O AUTOR

Josh Tayamo-Sarver trabalha na emergência de sua comunidade local em Los gatos, na Califórnia, e é vice-presidente de inovação da Infl... saiba mais