Afinal, devemos ou não nos preocupar com um futuro dominado pela IA?

Do uso na aplicação da lei aos deepfakes, há muitas questões sobre a inteligência artificial que precisamos considerar para o futuro

Créditos: Mikkel William/ Luca DP/ iStock/ Freepik

George Kailas 4 minutos de leitura

Trabalho com inteligência artificial há 13 anos e, ao longo desse tempo, conheci muitas pessoas preocupadas com ela. Na minha opinião, essas preocupações frequentemente focam nas coisas erradas. Em geral, elas se dividem em duas categorias:

● Robôs assassinos: quando eles vão surgir? Quão perigosos serão? Temos alguma chance contra eles?

● Superinteligência: uma espécie de mente coletiva onipresente, com câmeras e dispositivos conectados à internet funcionando como seus “olhos e ouvidos”, capaz de fazer previsões e conexões que estão além da nossa compreensão.

A segunda categoria está muito ligada à primeira. Por exemplo, no filme “O Exterminador do Futuro”, temos um robô assassino enviado de volta no tempo pela Skynet, uma superinteligência do futuro, para eliminar uma pessoa. Outro exemplo é a série “Person of Interest”, na qual um computador onisciente consegue prever o futuro de maneira incompreensível para nós.

Não acho que essas preocupações sejam realmente relevantes, pois não há motivo para acreditar que as máquinas se tornarão agressivas. Por que projetar nossos piores defeitos em máquinas? Elas não são como nós.

Além disso, ainda estamos longe de entender como uma superinteligência realmente pensaria. Então, enquanto robôs e superinteligências ainda não são uma realidade, há questões mais imediatas com as quais deveríamos nos preocupar.

IA NA APLICAÇÃO DA LEI

Computadores nos ajudam a otimizar tarefas o tempo todo. A cidade de Baltimore, nos EUA, por exemplo, implementou uma tecnologia chamada ShotSpotter, que identifica instantaneamente a origem de disparos de armas de fogo, como parte de um programa para reduzir a criminalidade. Embora isso seja um avanço positivo, me preocupo com um futuro próximo mais sombrio.

Hoje, temos um registro de agressores sexuais. Mas e se uma IA pudesse prever, com 80% de precisão, que uma pessoa irá praticar um crime sexual, mesmo sem ter feito nada ainda? Ela perderia seus direitos constitucionais? Estamos preparados para lidar com as consequências de apontar criminosos em potencial?

não há motivo para acreditar que as máquinas se tornarão agressivas. Elas não são como nós.

É fato que vivemos em um mundo cheio de perigos. Mas estamos preparados para lidar com as implicações de apontar pessoas como altamente prováveis de cometer crimes?

Antes de responder, imagine que um ente querido seu fosse acusado disso, mesmo sem ter feito nada. Você aceitaria que a vida dele fosse arruinada com base apenas na probabilidade calculada por um computador? Estamos mais próximos disso do que parece.

SISTEMA DE CRÉDITO SOCIAL

No episódio "Queda Livre" da série “Black Mirror”, a personagem principal precisa aumentar sua pontuação social para conseguir morar em um bom apartamento, alugar um carro e ter privilégios em voos. A avaliação é feita por outras pessoas após cada interação.

"Black Mirror" (Crédito: Netflix)

Agora, imagine um futuro em que, ao tentar entrar na sua loja favorita pela porta automática, seu rosto é escaneado e você descobre que foi barrado por causa de sua “pontuação social”.

Infelizmente, isso não é apenas ficção científica. Na China, já existe um sistema parecido que foi muito criticado por grupos de direitos humanos. Um advogado, por exemplo, foi impedido de comprar uma passagem aérea porque o tribunal considerou que seu pedido de desculpas em um caso “não foi sincero”.

DEEPFAKES

Em Hong Kong, golpistas conseguiram roubar mais de US$ 25 milhões após criarem uma reunião virtual na qual todos os participantes, exceto a vítima, eram imagens e vozes falsificadas de pessoas reais. O grupo usou imagens e áudios públicos para criar deepfakes dos funcionários da empresa, inclusive do diretor financeiro.

No futuro, isso pode se tornar ainda mais assustador. Imagine receber uma ligação da sua mãe dizendo que há uma emergência e que ela precisa de dinheiro? Ou que você acha que viu um político dizer algo, mas era um vídeo de IA. Isso sem falar de possíveis interações com robôs que ainda não atingiram a superinteligência, mas que certamente poderiam te enganar.

Imagem fake do papa Francisco usando um casaco da grife Balenciaga (Crédito: Reprodução/ Reddit)

A IA já está transformando o mundo e precisamos começar a prestar atenção agora. Embora o medo de robôs assassinos e de uma superinteligência domine nossa imaginação, essas não são as ameaças imediatas que enfrentamos.

O que realmente importa é como a inteligência artificial está sendo usada hoje – para prever crimes antes de que eles ocorram, determinar quem é “digno” em um sistema de crédito social e criar realidades virtuais inteiras com deepfakes. Esses avanços levantam sérias questões éticas e sociais.

Estamos preparados para viver em um mundo onde as previsões de uma máquina podem definir nossa liberdade, nosso status social ou até mesmo nossa percepção da realidade?

À medida que avançamos com o desenvolvimento da IA, é crucial garantir que sejamos cuidadosos e objetivos na forma como utilizamos essa tecnologia, equilibrando a inovação com os valores e direitos que nos definem como sociedade.

O futuro da IA não se trata de distopias distantes. Ele já está aqui, e o modo como escolhemos navegar por ele moldará o mundo em que viveremos amanhã.


SOBRE O AUTOR

George Kailas é CEO da plataforma de investimentos Prospero.AI. saiba mais