Apple faz estudo de detecção de humor com dados coletados de iPhones

Crédito: Fast Company Brasil

Ruth Reader 6 minutos de leitura

Novas informações sobre um estudo realizado pela Universidade da Califórnia em Los Angeles (UCLA) em parceria com a Apple mostram que a fabricante do iPhone está usando reconhecimento facial, padrões de fala e outras formas de monitoramento de comportamento passivo para detectar a depressão. O relatório de Rolfe Winkler, do The Wall Street Journal, levanta preocupações sobre a investida da empresa no campo da computação chamado Inteligência Artificial Emocional, que alguns cientistas dizem que se baseia em suposições falhas.

O estudo da Apple sobre depressão foi anunciado pela primeira vez em agosto de 2020. Informações anteriores sugeriam que a empresa estava usando apenas alguns dados de saúde, como frequência cardíaca, sono e forma com que o usuário interage com o aparelho para entender sua saúde mental. Mas o relatório do The Wall Street Journal afirma que a pesquisa irá monitorar muito mais, como indicadores de sinais vitais das pessoas, movimentos, fala, sono, hábitos de digitação – incluindo a frequência dos erros –, em um esforço para detectar estresse, depressão e ansiedade. Os dados serão obtidos através dos produtos Apple Watch e iPhone, neste último, utilizando inclusive a câmera e o microfone. Estas informações serão comparadas com questionários de saúde mental e resultados de níveis de cortisol (a partir dos folículos capilares dos participantes).

De acordo com o relatório, a Apple também está participando de estudos que visam detectar declínio cognitivo e autismo em crianças, coletando dados de seus aparelhos. Estes estudos são uma extensão do interesse da Apple na saúde individual. A empresa investiu fortemente no monitoramento de exercícios físicos, sono, audição, menstruação, dieta e outros indicadores da saúde diária de uma pessoa. Ela ainda compila estes dados e pode enviar relatórios ao seu médico.

As informações obtidas no estudo da depressão ajudam a empresa a dar um passo adiante – supostamente identificar seu estado emocional. Por isso, há um crescente número de aplicativos que avaliam como você está se sentindo, utilizando o que é chamado de I.A emocional ou computação afetiva. O objetivo é usar vários critérios, que incluem expressões faciais, para entender as emoções de uma pessoa, muitas vezes para fins comerciais. A computação afetiva movimentou US$ 20 bilhões em 2019, de acordo com a Grand View Research.

A I.A emocional já é usada como parte do processo seletivo em grandes empresas como a Dunkin’ Donuts, Unilever, Carnival Cruise Lines e IBM para entender a personalidade de um candidato. Esse tipo de tecnologia também está sendo usada de forma experimental e comercial em carros, para detectar motoristas sonolentos; nas populações carcerárias, para detectar estresse; e em aulas virtuais, para saber se os alunos estão com dificuldade.

Mas essa tecnologia tem enfrentado críticas, não apenas por coletar grandes quantidades de dados confidenciais, mas também porque não é considerada boa. “Em geral, as tecnologias de detecção de emoções ou de saúde mental não são precisas”, disse Hayley Tsukayama, ativista legislativa da Electronic Frontier Foundation.

Cientistas já falaram sobre os problemas da I.A emocional, afirmando que ela se baseia em uma ideia falha. A pesquisadora da Escola Annenberg de Comunicação e Jornalismo da Universidade do Sul da Califórnia e autora do Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Kate Crawford, chama isso de “impulso frenológico”. Ou seja, “fazer suposições errôneas sobre o estado interno de alguém a partir de uma aparência externa, com o objetivo de saber além do que a pessoa intencionalmente revela.”

Em um artigo de 2019 publicado na revista acadêmica Psychological Science in the Public Interest, um grupo de pesquisadores expôs os desafios da I.A emocional. “Os esforços em ‘ler’ os estados internos das pessoas a partir de uma análise de seus movimentos faciais apenas, sem considerar vários aspectos do contexto, são, na melhor das hipóteses, incompletos. E, na pior, carecem de validade. Não importa o quão sofisticados os algoritmos sejam”, afirmam os pesquisadores. O artigo aponta para a necessidade de um estudo mais aprofundado sobre as alterações na fisionomia, quando queremos transmitir e ocultar emoções em determinado contexto, e, também, sobre como as pessoas inferem emoções com base nas expressões faciais dos outros.

A eficácia dessa tecnologia tem consequências enormes, especialmente à medida que mais empresas como a Apple investem nela. Em agosto do ano passado, por exemplo, a Amazon lançou uma pulseira fitness com um recurso que detecta o estado emocional do usuário através da voz. Em um artigo para a prestigiada revista Nature, Crawford pediu uma legislação robusta para garantir que os métodos utilizados nesta tecnologia sejam rigorosos e transparentes. Nele, ela cita os danos causados pelos testes do polígrafo, usado por décadas e considerado não confiável.

Tsukayama diz que também é importante que as empresas sejam transparentes em relação ao que sua tecnologia é capaz ou não de fazer. No caso de detectar depressão, a empresa deve ir além, não apenas sinalizar aos usuários que a avaliação não constitui um diagnóstico. Precisam também levar em consideração a forma como um leigo pode interpretar o que o aplicativo diz. “Ele considera que pode dispensar uma visita ao médico? Ele avalia que isso é preocupante o suficiente a ponto de buscar tratamento? É exatamente esse o perigo”, explica Tsukayama.

Já a advogada de tecnologia e professora assistente da Escola de Direito da Universidade de New Hampshire, Tiffany C. Li, afirma acreditar que a pesquisa da Apple tem potencial para ser útil em termos médicos. “O importante é termos formas de proteção integradas”, diz ela. Sua preocupação em relação a I.A emocional é que ela utiliza uma enorme quantidade de dados pessoais. E, não havendo uma legislação federal de privacidade de proteção dos dados biométricos das pessoas, os consumidores não têm autonomia sobre seus próprios dados. Não decidem sobre como podem ser usados, processados e armazenados.

A Apple está testando sua tecnologia de detecção de depressão em um contexto de um estudo acadêmico, que tem regras rígidas sobre transparência e consentimento dos participantes. E, como aponta o The Wall Street Journal em seu relatório, o estudo em parceria com a UCLA pode nunca resultar em um aplicativo voltado para o usuário. Seu cronograma é de três anos e começou em 2020. Em sua próxima fase, ele contará com 3 mil participantes. Esta pesquisa é mais uma indicação de que o interesse em I.A emocional está crescendo. Desta forma, críticos acreditam que a regulamentação será necessária, uma vez que passará a atingir mais pessoas.

“Precisamos ter certeza de que a utilização de um algoritmo como este para tomada de decisões seja transparente, auditável e que as pessoas possam contestar essas decisões facilmente”, diz Tsukayama. “Precisamos ter certeza da existência de algum tipo de prestação de contas quanto à utilização dessa tecnologia.”


SOBRE A AUTORA

Ruth Reader é redatora da Fast Company. Ela cobre a interseção de saúde e tecnologia. saiba mais