Novo ChatGPT “pensa como um humano” – e isso preocupa os especialistas

Um chatbot capaz de “pensar” e “raciocinar”. Devemos começar a nos preocupar?

Créditos: Julia Zhurina/ iStock/, ilgmyzin/ Steve Johnson/ Unsplash

Sarah Bregel 3 minutos de leitura

A inteligência artificial está cada vez mais presente nas nossas vidas. Ela já é capaz de analisar dados, fazer diagnósticos, criar e editar imagens, além de ser uma parte fundamental das redes sociais.

Mas, apesar de executar tantas tarefas impressionantes, não é livre de falhas. Embora os chatbots possam gerar textos e respostas quase instantaneamente, eles têm dificuldade em resolver problemas de matemática e ciências.

Isso acontece porque a IA, em seu estado atual, não compreende os conceitos necessários para chegar à resposta certa, a menos que seja treinada especificamente para tal. Mas a OpenAi promete mudar isso.

A desenvolvedora do ChatGPT lançou recentemente uma prévia de um novo modelo capaz de “pensar” de uma forma mais parecida com um humano do que seus antecessores. E já está chamando bastante atenção.

O OpenAI o1 não é tão rápido quanto outros chatbots, mas isso faz parte de sua proposta. “Desenvolvemos uma nova série de modelos de IA projetados para pensar mais antes de responder”, afirma a empresa em seu site. “Esses modelos são capazes de raciocinar sobre tarefas complexas e resolver problemas mais difíceis em áreas como ciência, programação e matemática.”

O anúncio também explica que os novos bots podem “refinar seu processo de pensamento, testar diferentes abordagens e reconhecer seus erros”. Eles aprendem com o tempo, por meio de tentativas e erros, de maneira muito parecida com humanos.

UM CHATBOT QUE CONTINUA APRENDENDO

O OpenAI o1, que é capaz de ampliar seus conhecimentos e continuar aprendendo, é particularmente útil quando se trata de resolver problemas complexos de matemática e ciências – o tipo de “raciocínio” que pode ser valioso na criação de códigos avançados, no combate à crise climática ou mesmo no desenvolvimento de tratamentos para o câncer. 

Mas a ideia de robôs que podem raciocinar, pensar e aprender imediatamente levanta preocupações sobre até onde essa tecnologia pode ir e quais os possíveis custos disso.

O rápido avanço da inteligência artificial nos últimos anos já gerou discussões sobre o uso indevido de informações e obras criativas e levou a um aumento no número de ações judiciais envolvendo privacidade e direitos autorais. 

Crédito: vecstock/ Freepik

Além disso, a IA consome uma enorme quantidade de energia, elevando o consumo energético e as emissões de carbono das empresas do setor, algo que tem preocupado especialistas. O CEO da OpenAI, Sam Altman, tem demonstrado preocupação com a quantidade de energia que a tecnologia exige e participou recentemente de uma discussão na Casa Branca sobre o tema.

Contudo, quando se trata de máquinas que aprendem com o ambiente ao seu redor, a questão mais importante é: até onde estamos dispostos a deixar que elas aprendam?

PREOCUPAÇÕES DE SEGURANÇA

Mesmo em seu estado atual, a inteligência artificial já mostrou uma série de vieses preocupantes envolvendo questões sociais. A tecnologia já causou problemas ao reproduzir estereótipos de raça e de gênero e enfrenta ações judiciais sobre sua influência em processos de contratação.

Ashwini K.P., relatora especial da ONU sobre racismo e intolerância, expressou preocupação em um relatório divulgado no início deste ano. “A inteligência artificial generativa está mudando o mundo e tem o potencial de provocar mudanças sociais cada vez mais profundas”, escreveu Ashwini.

“Estou extremamente preocupada com a rápida expansão da IA em diversos setores. Isso não quer dizer que não traga benefícios potenciais. Ela oferece oportunidades para inovação e inclusão.”

Em resposta, a OpenAI ressaltou, no anúncio do o1, que desenvolveu uma nova abordagem de treinamento voltada para a segurança. “Aproveitamos as capacidades de raciocínio dos novos modelos para garantir que sigam as diretrizes de segurança e alinhamento. Por serem capazes de raciocinar sobre nossas regras, eles podem aplicá-las de forma mais eficaz.”

Logo poderemos ver como essas medidas de segurança vão funcionar na prática. A empresa anunciou que o novo modelo estará disponível em breve para a maioria dos usuários do ChatGPT.


SOBRE A AUTORA

Sarah Bregel é uma escritora, editora e mãe solteira que mora em Baltimore, Maryland. Ela contribuiu para a nymag, The Washington Post... saiba mais