IA que prevê assassinatos? Entenda projeto polêmico que está em teste no Reino Unido

Algoritmo analisa dados pessoais e padrões criminais para tentar prever comportamentos violentos

Silhueta de uma pessoa segurando um celular nas mãos
A proposta usa algoritmos de cruzamento de dados para tentar identificar, com base em padrões e históricos, quem tem maior probabilidade de cometer crimes violentos, como homicídios. Crédito: solidcolours/iStock

Guynever Maropo 3 minutos de leitura

O governo do Reino Unido está desenvolvendo uma ferramenta polêmica de “previsão de assassinatos”. A proposta usa algoritmos de cruzamento de dados para tentar identificar, com base em padrões e históricos, quem tem maior probabilidade de cometer crimes violentos, como homicídios.

De acordo com o jornal The Guardian, o projeto está em fase de testes e analisa dados de milhares de pessoas conhecidas pelas autoridades, incluindo vítimas e infratores. A iniciativa, inicialmente chamada de “projeto de previsão de homicídios”, foi renomeada para “compartilhamento de dados para melhorar a avaliação de risco”.

O objetivo principal é reforçar a segurança pública por meio da prevenção e da tecnologia. No entanto, o projeto tem gerado críticas de grupos de direitos civis, que o classificam como “assustador e distópico”.

Como funciona a tecnologia?

Pesquisadores estariam usando algoritmos para cruzar informações de diferentes bancos de dados, como:

  • Condenações criminais
  • Histórico de liberdade condicional
  • Informações da polícia de Manchester antes de 2015
  • Dados de saúde mental, dependência química, automutilação, tentativas de suicídio e deficiência
  • Idade da primeira aparição como vítima (inclusive em casos de violência doméstica)
  • Gênero, etnia e dados biométricos

O Ministério da Justiça Britânico afirma que os dados utilizados são de pessoas com condenações criminais, e que o projeto ainda está em fase de pesquisa, sem qualquer aplicação prática no momento. A expectativa é que os resultados ajudem a aprimorar as atuais ferramentas de avaliação de risco usadas por serviços prisionais e de liberdade condicional.

Críticas e preocupações

O grupo de vigilância civil Statewatch foi o primeiro a revelar a existência do projeto, por meio de documentos obtidos com base na Lei de Liberdade de Informação. A organização alega que dados de pessoas inocentes ou que procuraram a polícia em busca de ajuda também estão sendo usados, o que poderia gerar viés contra minorias e pessoas em situação de vulnerabilidade.

O governo, por sua vez, nega essas acusações e promete que um relatório oficial será publicado “no tempo apropriado”, esclarecendo os objetivos e limites da pesquisa.

Apesar das garantias, ativistas apontam os riscos éticos e legais de se usar algoritmos para prever comportamentos futuros, especialmente em contextos sensíveis como crimes violentos.

Inteligência artificial na justiça 

O debate está lançado: usar tecnologia para prevenir assassinatos é avanço ou abuso? Enquanto autoridades veem a ferramenta como uma aliada na redução da criminalidade, especialistas em direitos humanos alertam para a ameaça à privacidade, à presunção de inocência e ao aumento da vigilância sobre determinados grupos.

Um porta-voz do Ministério da Justiça disse: “Este projeto está sendo conduzido apenas para fins de pesquisa. Ele foi elaborado usando dados existentes mantidos pelo HM Prison and Probation Service e forças policiais sobre criminosos condenados para nos ajudar a entender melhor o risco de pessoas em liberdade condicional cometerem violência grave. Um relatório será publicado no devido tempo.”

O que está claro é que o Reino Unido entra numa nova fase de experimentação no uso de inteligência artificial para segurança pública  e a “previsão de assassinato” passa a ser o novo e controverso centro da discussão sobre até onde a tecnologia pode ir em nome da prevenção criminal.


SOBRE A AUTORA

Jornalista, pós-graduando em Marketing Digital, com experiência em jornalismo digital e impresso, além de produção e captação de conte... saiba mais