O hype em torno da IA dá sinais de que está começando a perder força

Conforme o entusiasmo diminui, executivos começam a questionar se todas essas ferramentas e produtos estão realmente gerando melhorias

Créditos: ivan_7316/ oonal/ iStock

Mark Sullivan 3 minutos de leitura

A possibilidade de um “inverno da IA” pode dominar as discussões sobre inteligência artificial na segunda metade de 2024.

Há mais de um ano, empresas de tecnologia e seus investidores vêm nos dizendo que a IA generativa aumentará a produtividade dos trabalhadores e criará uma quantidade incalculável de riqueza.

É verdade que a produtividade já está aumentando em algumas áreas, como design gráfico e pesquisa jurídica. Mas há poucas evidências de que a inteligência artificial esteja contribuindo o suficiente para impulsionar os lucros das companhias ou elevar os preços de suas ações.

Muitas grandes empresas embarcaram na construção e teste de infraestrutura e aplicativos de IA generativa no ano passado. No entanto, muitas delas acharam o processo complexo e demorado e outras ainda estão lutando para obter retorno de seus investimentos.

“É raro encontrar alguém hoje que diga: ‘sim, usamos IA generativa todos os dias e é absolutamente essencial para o que fazemos’”, disse o especialista em inteligência artificial e ex-professor da Universidade de Nova York Gary Marcus durante uma entrevista recente ao “The Agenda”.

alguns dos maiores avanços de desempenho estão vindo de modelos de código aberto, como o Llama-3, da Meta.

Será que as empresas que lideram o boom da IA superestimaram a tecnologia? Sam Altman, CEO da OpenAI, disse no início do ano que modelos capazes de realizar a maioria das tarefas geradoras de receita melhor do que os humanos chegarão em um futuro “razoavelmente próximo”.

Ele sugeriu, durante uma audiência no Congresso norte-americano, que os sistemas de IA se tornarão tão poderosos a ponto de ameaçar a humanidade e que os reguladores deveriam considerar exigir que as empresas do setor obtenham uma licença do governo para desenvolver grandes modelos.

Mas a inteligência artificial geral – ou seja, sistemas de IA que podem aprender a realizar qualquer tarefa intelectual realizada por humanos – ainda parece um sonho distante.

Créditos: Karolina Grabowska/ Altered Snaps/ Pexels

Marcus observa que os grandes avanços no desempenho dos modelos de IA estão ocorrendo com menos frequência. “Todo mundo ficou superanimado no ano passado, mas o volume de melhorias diminuiu. Pelo menos por um tempo, o ritmo está desacelerando”, diz ele.

Na verdade, alguns dos maiores avanços de desempenho estão vindo de modelos de código aberto, como o Llama-3, da Meta, e outros, que agora estão alcançando os modelos fechados.

O diretor de operações da OpenAI, Brad Lightcap, afirmou recentemente no podcast 20VC que as expectativas ultrapassaram o que a tecnologia é capaz de fazer. “Esses modelos não são tão bons”, disse ele. “Acho que as expectativas começarão a diminuir assim que as pessoas tiverem contato com os modelos de hoje.”

Ele também acrescentou que a OpenAI espera que seus modelos se tornem muito bons “muito rapidamente” e que atendam às expectativas que foram criadas.

A indústria de IA está tentando transformar os grandes modelos de linguagem em algo mais do que ferramentas de escrita e resumo de texto no estilo ChatGPT, para que se tornem agentes autônomos que podem raciocinar e fazer planos.

a inteligência artificial geral ainda parece um sonho muito distante.

“Startups emergentes estão agora focadas em agentes de IA, que vão atuar de forma mais independente dos humanos e realizar tarefas em nome deles na internet e em outros aplicativos, sem que estejam presentes”, afirma Jeremiah Owyang, da Blitzscaling Ventures.

A Agent Lunar, por exemplo, está desenvolvendo uma plataforma que oferece às empresas “colegas de IA”, ou agentes que se especializam em diferentes aspectos do negócio. Muitas desenvolvedoras vão construir suas plataformas com base em modelos fundamentais, como o GPT-4, e seus produtos se tornarão mais capazes à medida que novos modelos estiverem disponíveis.

Ainda assim, incorporar mais comportamentos nos LLMs é um desafio complexo. Alguns especialistas acreditam que os primeiros agentes verdadeiramente úteis não vão surgir antes de 2026 ou 2027.

Enquanto isso, o hype em torno da IA generativa provavelmente começará a desaparecer.


SOBRE O AUTOR

Mark Sullivan é redator sênior da Fast Company e escreve sobre tecnologia emergente, política, inteligência artificial, grandes empres... saiba mais