IA parece mágica, mas em 10 anos poderá ter virado um filme de terror

A IA generativa está diluindo os limites entre fato e ficção. Se não for controlada, ela pode levar ao fim da realidade como a conhecemos

Créditos: starline/ Freepik/ Breaker Maximus/ Frances Coch/ iStock

Jesus Diaz 10 minutos de leitura

É difícil escrever um artigo sobre IA generativa. Quando você termina, qualquer novo avanço na tecnologia pode já ter tornado o seu texto obsoleto. 

Emad Mostaque, CEO e fundador da Stability AI, a empresa por trás do gerador de imagens Stable Diffusion, prevê que, em apenas dois anos, será possível gerar um rosto em tempo real capaz de falar e se movimentar de forma tão realista que convenceria a todos durante uma videoconferência.

Ele acredita que, em 2033, será impossível distinguir um conteúdo criado por um humano de um gerado por uma máquina, seja áudio, vídeo, imagem ou texto.

em 2033, talvez seja impossível distinguir um conteúdo criado por um humano de um gerado por uma máquina.

Enquanto escrevia a primeira versão deste artigo, mais notícias sobre os avanços da IA continuavam a surgir. Tive que reescrevê-lo diversas vezes. Até que, em um determinado momento, joguei tudo fora.

Percebi que seria impossível escrevê-lo na estrutura tradicional de um texto jornalístico. Então, recorri à prototipagem de ficção científica, uma técnica usada por futurólogos e organizações para prever o que está por vir.

Com essa técnica, informações reais são condensadas em um conjunto de limites rígidos para produzir uma projeção lógica de eventos no futuro próximo.

Como essas projeções geralmente são baseadas em um período de 10 anos, pude encaixar as previsões que os cientistas e engenheiros estão fazendo. A prototipagem se revelou uma ferramenta excelente para mostrar como a IA generativa pode evoluir ao longo do tempo.

Usando o que aprendi durante meses de entrevistas, aqui está minha linha do tempo para a inteligência artificial.

2022

O surgimento da IA generativa. Programas como DALL-E, Midjourney e Stable Diffusion geram fluxos intermináveis de imagens sintéticas a partir de descrições simples. 

Em poucos meses, ela sai dos laboratórios e passa a ser usada por qualquer pessoa com um computador ou telefone. Você pode não perceber, mas estamos diante da tecnologia mais poderosa e potencialmente destrutiva já criada desde a invenção da bomba atômica.

Fontes das imagens: Lensa/ OpenAI/ NASA

2023

De olho no sucesso do ChatGPT, a Microsoft investe US$ 10 bilhões na OpenAI e a incorpora ao Bing. Depois de mais de uma década desenvolvendo com cautela sua própria inteligência artificial, o Google se apressa para lançar sua versão, chamada Bard.

Poucos dias após o lançamento, a nova IA do Bing dá indícios de sociopatia, manipulando e mentindo para os usuários. O Bard também comete erros graves, mas o Google e a Microsoft argumentam que ainda estão em fase de teste e ignoram esses sinais de alerta.

Em Hollywood, designers de produção usam IA para criar conceitos e cenários. É lançado o novo trailer de “Indiana Jones”, com um Harrison Ford rejuvenescido. A Metaphysic, empresa que viralizou com seu deepfake de Tom Cruise, assina um contrato com a maior agência de talentos do mundo para criar perfis biométricos de seus clientes, mesmo depois de mortos.

Notícias surgem sobre a possível prisão de Donald Trump. Mesmo antes da prisão, imagens começam a circular no Twitter mostrando o ex-presidente sendo arrastado por um grupo de policiais. Elas são falsas, mas as pessoas acreditam que são reais no primeiro momento.

Fontes das imagens: Microsoft/ Lucasfilm/ Vecanoi

2024

[Nota aos leitores: a partir deste ponto, entraremos nas minhas previsões de como poderá ser o futuro.]

O Stable Diffusion lança uma atualização tão poderosa que um simples comando pode gerar qualquer imagem que você imaginar. Somente uma análise bastante minuciosa é capaz de revelar erros que indicam sua natureza sintética. Fotógrafos temem perder seus empregos.

Desenvolvedores tentam limitar o uso criminoso do Stable Diffusion. Mas, como seu código é aberto, a ferramenta é clonada pela web e se torna acessível a qualquer pessoa com um cartão de crédito.

Um amigo seu gera algumas fotos ridículas de você em uma situação comprometedora, como brincadeira. Não muito tempo depois, aparecem notícias sobre uma onda crescente de crimes desse tipo. O bullying se espalha e os agressores criam imagens falsas para chantagear suas vítimas.

Fontes das imagens: satapatms/ Getty Images Plus/ Christopher Campbell/ unsplash/

2025

Surgem novos chatbots especializados, tão sofisticados que são capazes de conversar como um humano de verdade. Você passa a usar um assistente de inteligência artificial para ajudá-lo na sua rotina diária. Um amigo seu confessa que começou a flertar com uma IA e diz, meio que de brincadeira, que está ficando apaixonado.

Meses depois, uma startup lança um aplicativo que permite transformar sua voz na de outra pessoa em tempo real. Seu TikTok está repleto de memes de usuários falando com a voz de celebridades. Essa nova tecnologia resulta em um aumento de casos de roubo de identidade e fraude.

No jornal, você lê sobre um caso de corrupção em um país europeu, no qual um advogado conseguiu que áudios reais gravados pela polícia fossem descartados como evidência, sob o argumento de que poderiam ter sido feitos por IA.

O caso é arquivado e os réus são absolvidos. Especialistas ficam impressionados com a qualidade do material. Promotores e juízes em todo o mundo passam a debater o uso de gravações de áudio como prova.

Crédito: izusek/ Getty Images Plus

2027

Uma nova IA consegue gerar imagens perfeitas, em alta definição, usando prompts de voz de linguagem natural. Ela até reproduz os erros dos sensores de câmeras digitais e ópticas.

Empresas de tecnologia se unem para lançar um serviço que possa detectar fotos sintéticas, mas não conseguem acompanhar a evolução da IA generativa. Uma prima sua conta que entrou em uma nova rede social “livre de IA”, mas logo imagens falsas também começam a aparecer por lá.

Organizações políticas de todos os espectros passam a usar a ferramenta para criar propaganda, semeando o caos e aumentando as desigualdades sociais em todo o mundo. A situação é tão grave que as pessoas param para assistir às audiências no Congresso, mas os legisladores não têm ideia de como resolver a crise.

Sem regulamentação clara, as empresas de IA continuam a lançar novas versões de seus softwares, argumentando que seus aplicativos são apenas ferramentas criativas.

No final do ano, o abuso sexual digital se torna uma caça às bruxas online constante. Chocado, você assiste à primeira figura pública ser falsamente acusada desses atos durante um julgamento. Só uma análise forense da suposta evidência fotográfica consegue salvar o réu da prisão, mas grande parte do público não está convencido.

Créditos: Svetlana Sarapultseva/ iStock/ Getty Images Plus/ Mcsdwarken/ Getty Images

2029

Surge uma nova rede social que permite que usuários gravem e editem vídeos a partir de comandos de voz simples. Você testa o aplicativo dizendo “transforme o copo d’água na mão do Mike em uma taça de vinho”, e o vídeo é alterado diante de seus olhos.

A mesma tecnologia é usada em um novo jogo multiplayer extremamente popular que permite às pessoas construir mundos virtuais incrivelmente realistas com simples comandos de voz e texto. Você começa a jogar e não consegue mais parar.

Meses depois, um amigo encaminha o que parece ser um vídeo gravado por uma câmera escondida, no qual um bilionário megalomaníaco admite que sua empresa de tecnologia está prestes a falir. As ações perdem mais da metade de seu valor em poucas horas.

O magnata afirma que o vídeo é falso, mas apenas seus fãs acreditam nele. Ninguém sabe se o vídeo é verdadeiro ou não, mas clientes e investidores abandonam a empresa. Alguns meses depois, ela declara falência.

Crédito: Jim Watson/ AFP/ Getty Images

2033

Você assiste a um filme estrelado por um ator que morreu há 15 anos. O longa é premiado no Oscar, levando cinco estatuetas. É a estreia de um diretor desconhecido, que fez o filme com um orçamento de apenas US$ 2 milhões e uma equipe de seis pessoas trabalhando de suas casas.

Enquanto isso, em uma região em conflito em outro país, começam a surgir vários vídeos mostrando membros de um grupo de oposição matando jovens que estavam passeando em um parque. As cenas geram fúria nas redes sociais.

Você vê o caso nos noticiários e acredita que os vídeos podem ter sido todos gerados por IA. Mas isso não importa no país das vítimas.

Membros da comunidade começam a retaliar com ataques em plena luz do dia, desencadeando uma série de atos violentos em várias cidades. Ignorando os pedidos da comunidade internacional, as duas facções iniciam uma guerra que só termina com um cessar-fogo depois do lançamento de mísseis nucleares e mais de um milhão de mortos.

Pelo menos, é isso que você acha que aconteceu. No curto espaço de tempo desde que a IA foi popularizada, está cada vez mais difícil saber o que é real ou não.

Crédito: ilustração Fast Company

Apenas meses depois, a polícia britânica prende um jovem radical que criou e distribuiu os vídeos originais (se é que podemos chamá-los assim) gerados por IA da casa de seus pais em um subúrbio de Londres. Ele causou o que é considerado o maior desastre desde a Segunda Guerra Mundial.

APRENDENDO COM OS ERROS DO PASSADO

A IA generativa é uma tecnologia que veio para ficar, e ainda há tempo para imaginar formas mais razoáveis e responsáveis de usá-la.

No entanto, a história nos mostrou repetidas vezes que confiar nas empresas para se autorregular é ingenuidade. Cegas pelo lucro, elas carecem de ética e visão de futuro para conter possíveis danos tecnológicos.

Então, o que esperar do futuro? Os especialistas com quem conversei defendem que é necessário um debate público urgente sobre a IA generativa. Eles propõem três medidas concretas que podemos tomar para evitar uma crise social com consequências desastrosas.

1. Criar padrões de certificação criptográfica

Para evitar a dissolução da realidade, as pessoas precisam ser capazes de autenticar o conteúdo captado por câmeras e microfones digitais. O objetivo é estabelecer um nível básico de certeza de que uma foto, vídeo ou áudio é real. Algumas empresas já estão trabalhando nisso, criando autenticação em torno do próprio material gravado.

precisamos de múltiplas camadas de segurança para autenticar imagens, vídeos e arquivos de áudio.

Ziad Asghar é vice-presidente sênior de gerenciamento de produtos da Qualcomm, empresa que desenvolve os chips para a maioria dos telefones Android e muitos outros aparelhos. Ele afirma que já tem a tecnologia para preservar a autenticidade de todos os pixels e ondas sonoras capturados por um dispositivo. É a mesma que a Qualcomm usa para autenticação facial segura.

Asghar defende que precisamos de “múltiplas camadas de segurança” e formatos de arquivo que funcionem de maneira semelhante às NFTs, usando certificados de blockchain para autenticar imagens, vídeos e arquivos de áudio capturados.

2. Conscientizar o público

O segundo passo é lançar programas para conscientizar as pessoas sobre a IA generativa. “A ideia é tornar a IA aberta, de maneira que não seja controlada por governos e gigantes da tecnologia, e fazer com que todos tenham acesso e se acostumem com ela”, diz Gil Perry, da empresa israelense de inteligência artificial D-ID.

Tom Graham, cofundador da Metaphysic, concorda que campanhas de conscientização podem fazer a diferença. Recentemente, sua empresa participou do famoso programa de TV “America’s Got Talent”, com avatares gerados por IA em tempo real. Segundo ele, o objetivo era mostrar ao grande público o poder dessa tecnologia.

3. Incentivar a legislação colaborativa

Por fim, é necessário encorajar governos de todo o mundo a colaborar com a comunidade científica na criação de uma legislação que proteja os direitos individuais e estabeleça limites penais para o uso da IA generativa.

Isso exigirá que as empresas se sentem com governos, instituições, psicólogos, filósofos e organizações de direitos humanos para garantir que todos os aspectos envolvidos sejam considerados.

Embora essas medidas possam ajudar a evitar um colapso total da realidade, elas não impedirão regimes autoritários, organizações e indivíduos de usarem a IA generativa para causar danos.

Por isso, é importante que tanto os desenvolvedores quanto os usuários discutam novas maneiras de proteger a sociedade dos perigos potenciais dessa tecnologia.


SOBRE O AUTOR

Jesus Diaz fundou o novo Sploid para a Gawker Media depois de sete anos trabalhando no Gizmodo. É diretor criativo, roteirista e produ... saiba mais