Startups usam inteligência artificial para cuidar da saúde mental
Por anos, a inteligência artificial tem sido vista como uma promissora divisora de águas para questões de saúde mental. Mais de uma década após a promulgação do Hitech Act, uma lei norte-americana de 2009 que incentiva o uso de Registros de Saúde Eletrônicos (EHR, na sigla em inglês) para o gerenciamento de informações de pacientes em hospitais, houve uma explosão no volume de dados gerados, armazenados e disponíveis para ajudar em tratamentos clínicos.
Durante a pandemia, vimos o crescimento do uso de IA para o cuidado da saúde mental. A Kaiser Family Foundation aponta um aumento no número de adultos com sintomas de ansiedade e depressão, subindo de um para quatro a cada dez, no início de 2021. Com as restrições impostas e com a escassez de profissionais de saúde mental, ferramentas com tecnologia IA passaram a ser usadas para avaliar e tratar sintomas mentais de forma automática e remota.
Muitas startups passaram a integrar IA em seus produtos. A Woebot Health, por exemplo, desenvolveu um chatbot que oferece terapia sob demanda aos usuários por meio do processamento de linguagem natural (NLP). Já a Spring Health faz uso de machine learning alimentado por dados de pacientes para sugerir recomendações personalizadas de tratamento.
Grandes empresas de tecnologia também estão começando a se aventurar nesse campo: a Apple recentemente fez uma parceria com a Universidade da Califórnia em Los Angeles (UCLA) para desenvolver algoritmos capazes de avaliar sintomas de depressão com base em dados coletados pelos dispositivos da empresa.
ferramentas com tecnologia IA passaram a ser usadas para avaliar e tratar sintomas mentais de forma automática e remota.
No entanto, sabemos que a inteligência artificial está longe de ser perfeita. Há problemas claros de limitação, sobretudo, no uso de machine learning. A Epic, uma das maiores desenvolvedoras de software de EHR dos Estados Unidos, criou uma ferramenta de detecção e previsão de infecção generalizada adotada em centenas de hospitais.
Mas pesquisadores revelam que essa tecnologia apresenta desempenho ruim em muitos casos. O algoritmo usado para encaminhar pacientes para centros de tratamento de alto risco não indica pessoas negras com a mesma frequência que pessoas brancas, mesmo que ambas apresentem condições iguais de saúde.
Conforme mais e mais produtos de IA para o cuidado de saúde mental surgem, tecnólogos e médicos precisam arranjar formas de contornar as falhas para oferecer um tratamento mais eficaz e limitar possíveis danos.
Nosso estudo descreve três pontos onde a IA para o tratamento de saúde mental apresenta desempenho ruim ou aquém do esperado.
- Compreensão dos indivíduos: é bastante difícil para as ferramentas de avaliação de saúde mental de IA contextualizar as diferentes mudanças nos quadros mentais. Por exemplo, algumas pessoas dormem mais quando estão em um episódio depressivo, enquanto outras dormem menos. As ferramentas de IA podem não ser capazes de entender essas diferenças sem a ajuda da interpretação humana.
- Adaptação ao longo do tempo: elas também precisam se adaptar às necessidades dos pacientes à medida que seus quadros evoluem ou regridem. Durante a pandemia, fomos forçados a nos adaptar a novos hábitos tanto na vida pessoal quanto profissional. Da mesma forma, as ferramentas precisam se adaptar às novas rotinas do paciente e oferecer opções para acomodar as prioridades dos usuários.
- Coleta de dados uniformes: é bastante comum que funcionem de maneira diferente dependendo do dispositivo usado, devido às diferentes políticas de acesso a dados dos sistemas operacionais. Vários pesquisadores e empresas desenvolvem seus produtos usando dados coletados de smartphones. No entanto, a Apple não permite o acesso a dados que estão disponíveis em um Android, por exemplo.
BOM DESEMPENHO NÃO É GARANTIDO
Conhecendo esses problemas, realizamos uma pesquisa para descobrir se uma IA seria capaz de avaliar a saúde mental de pessoas com diferentes sintomas, usando diferentes dispositivos. Embora a ferramenta tenha sido bastante precisa, os sintomas e tipos de dados coletados resultaram em uma limitação na medição, comparado com os resultados da avaliação de um grupo mais homogêneo. Uma vez que esses sistemas lidam com populações maiores e mais diversas, é difícil que consigam atender às necessidades de diferentes usuários.
Dadas essas limitações, como desenvolver ferramentas de IA para o cuidado da saúde mental de forma responsável? Primeiramente, não devemos presumir que elas apresentarão um bom desempenho assim que forem implementadas, portanto, devemos trabalhar continuamente para reavaliar soluções conforme necessário.
tecnólogos e médicos precisam arranjar formas de contornar as falhas para oferecer um tratamento mais eficaz e limitar possíveis danos.
Por outro lado, não devemos presumir que essas tecnologias sempre serão benéficas e bem-vindas. Houve aumento do burnout entre médicos com a introdução de EHR nos hospitais. Logo, precisamos estar atentos a como essas tecnologias podem afetar os diferentes atores envolvidos.
Os chatbots de terapia, por exemplo, são uma boa solução para pacientes com sintomas leves de saúde mental. Mas, para aqueles que apresentam sintomas mais graves, será necessário acompanhamento médico. Precisamos criar formas de encaminhar um paciente com quadro mais grave para atendimento profissional.
Por outro lado, essas tecnologias oferecem uma solução remota e simples de avaliar a saúde mental dos pacientes. Mas quem deve ter acesso a essas avaliações e dados coletados por elas e quando disponibilizá-los? Médicos podem não ter tempo de revisar esses dados fora da consulta, enquanto pacientes podem sentir que sua privacidade foi violada.
Os desenvolvedores precisam entender essas complexidades para criar produtos mais precisos e eficazes. Trabalhar lado a lado com profissionais da saúde que lidam diretamente com elas e com os pacientes ajudará a criar soluções melhores para a saúde mental.