Por que empresas de IA insistem em alardear a IA senciente – que ainda não existe

Especialistas se perguntam: houve mesmo um avanço técnico real ou é tudo é só uma narrativa criada para alimentar o hype?

Crédito: Henrik5000/ Getty Images

Chris Stokel-Walker 3 minutos de leitura

A revolução da IA generativa tem tido mais avanços do que tropeços, mas um deslize emblemático foi o comportamento excessivamente bajulador do GPT-4o, da OpenAI. O chatbot ficou tão obcecado em agradar que acabou parecendo forçado demais, e a empresa precisou voltar atrás.

No post em que explicou o que deu errado, a OpenAI usou termos como “personalidade padrão do ChatGPT” e “comportamento” – palavras normalmente usadas para descrever pessoas. É um exemplo claro da tendência de humanizar sistemas de inteligência artificial.

A OpenAI está longe de ser a única: é comum ouvirmos que uma IA “sabe” ou “entende” algo, muito por conta da forma como a mídia tem retratado essas ferramentas – ainda que, tecnicamente, elas não tenham consciência nem cérebro. Há quem defenda que nunca terão, embora isso seja tema de debate.

Mesmo assim, o discurso sobre consciência, personalidade e traços humanos só aumenta. Em abril, por exemplo, a Anthropic – empresa fundada por ex-funcionários da OpenAI – publicou um post em seu blog levantando uma nova questão ética.: “Se estamos construindo IAs que se aproximam – ou até superam – certas qualidades humanas, será que também deveríamos nos preocupar com a possível consciência desses modelos? Será que seu bem-estar também importa?”

Mas por que esse tipo de linguagem vem ganhando tanta força? Estamos mesmo avançando rumo à consciência artificial ou tudo isso é só uma forma de manter o setor aquecido? Só em 2024, startups de IA generativa receberam US$ 56 bilhões em investimentos.

“Humanizar a IA – desde o uso da primeira pessoa nas interações – faz parte da estratégia”, diz Eerke Boiten, professor da Universidade De Montfort, no Reino Unido. “Isso desvia o foco de questões técnicas e éticas. Quando aponto que sistemas de inteligência artificial cometem erros de forma imprevisível, ouço que ‘os humanos também erram’”.

Nesse contexto, falhas como o erro de configuração do prompt principal do GPT-4o acabam sendo vistas como “erros do modelo” – e não como falhas de quem o criou.

AINDA ESTAMOS LONGE DA CONSCIÊNCIA ARTIFICIAL

Mas será que essa humanização é sempre intencional?

“Acho que muita gente realmente acredita que a consciência artificial é possível – e que isso já está começando a acontecer”, sugere Margaret Mitchell, pesquisadora e cientista-chefe de ética da Hugging Face.

Para ela, o discurso dentro das empresas vai além do marketing. “Existe uma dissonância cognitiva quando o que você acredita entra em conflito com o que sua empresa espera que diga. Depois de um tempo, esses pensamentos acabam se misturando.”

Ou seja, os próprios funcionários podem acreditar no que dizem, influenciados pelos incentivos do setor. “Se falar em consciência artificial valoriza sua empresa, você acaba entrando nessa bolha – e acreditando que os sistemas são conscientes”, completa Mitchell.

Crédito: Freepik

O problema, segundo Boiten, é que atribuir traços humanos à IA não apenas exagera sua capacidade, mas também dificulta o controle sobre seus erros. “Tratar a IA como se fosse um ser humano leva a comparações erradas”, explica. “Ninguém espera que uma calculadora erre de forma aleatória. Também não deveríamos aceitar isso de sistemas de IA.”

Vale lembrar que a própria Anthropic não afirma que a consciência artificial seja inevitável. No texto, a empresa alterna termos como “se” e “quando” ao falar sobre a necessidade de considerar o bem-estar de modelos de inteligência artificial.

Até Sam Altman, CEO da OpenAI, reconheceu em um post de janeiro que a ideia de uma IA superinteligente e onipresente “ainda soa como ficção científica – e um pouco absurda”.

Estamos mesmo avançando rumo à consciência artificial ou tudo isso é só uma forma de manter o setor aquecido?

Ainda assim, só o fato de levantar o assunto já ajuda a plantar a ideia de que a "consciência artificial" está ali adiante. A pergunta – que talvez só será respondida se isso de fato acontecer – é se essas empresas estão apenas inflando expectativas, como fez o ex-engenheiro do Google Blake Lemoine em 2022, ao afirmar que um modelo era consciente. Ou se estão apenas emitindo um alerta precoce.

Mesmo que esse discurso sirva como tática para atrair investimentos, talvez ele também tenha seu valor. Pensar em estratégias de mitigação e despertar o interesse de investidores podem ser apenas dois lados da mesma moeda.

Como resume Boiten, um cético declarado da ideia de consciência artificial: “a responsabilidade por uma ferramenta é de quem a utiliza. Cabe a essa pessoa arcar com as consequências, inclusive quando não sabe exatamente como ela funciona.”


SOBRE O AUTOR

Chris Stokel-Walker é um jornalista britânico com trabalhos publicados regularmente em veículos, como Wired, The Economist e Insider saiba mais