Reduzir os grandes modelos de linguagem é o futuro da IA generativa

Modelos menores podem ter até um bilhão de parâmetros, mas não chegam perto dos LLMs fundamentais, como ChatGPT e Bard

Crédito: Alicja/Pixabay

Torsten Grabs 4 minutos de leitura

As empresas estão ansiosas para explorar todo o potencial da IA generativa. Porém, grandes modelos de linguagem (LLMs, na sigla em inglês), como o ChatGPT, apresentam desafios óbvios para o uso corporativo. 

Um estudo recente revelou que 75% das organizações estão considerando ou já implementaram restrições a aplicativos de inteligência artificial generativa, citando preocupações com segurança, privacidade e outras questões. O alto custo de treinamento dos LLMs também é visto como uma enorme barreira para a adoção.

Para aproveitar os benefícios da tecnologia, a solução está em modelos de linguagem menores, que exigem menos tempo e recursos para manutenção e podem operar dentro do perímetro de segurança das próprias empresas.

Além disso, eles podem ser mais rápidos e precisos, já que são otimizados para um conjunto mais específico de tarefas em comparação com os modelos mais completos que atraíram a maior parte da atenção até o momento.

Crédito: Elena Merkulova/ iStock

LLMs públicos, como o ChatGPT, são conhecidos como modelos “fundamentais”. Foram criados a partir de um enorme volume de dados extraídos da internet para responder a perguntas sobre praticamente qualquer tópico – desde como assar um bolo até como montar uma carteira de ações.

Eles têm bom desempenho em questões de conhecimento geral, porém são propensos a erros, além de consumirem uma quantidade imensa de poder computacional para serem construídos e para a sua manutenção.

O que eles não são capazes de fazer de forma eficiente é responder a perguntas específicas de uma organização, pois não têm acesso aos dados sensíveis dos clientes, informações financeiras e outros dados proprietários que as empresas mantêm protegidos por questão de segurança.

Para aproveitar os benefícios da tecnologia, a solução está em modelos de linguagem menores, que exigem menos tempo e recursos para manutenção

Usar dados corporativos em um LLM público simplesmente não é uma opção para a maioria das empresas, já que os riscos à segurança e privacidade são muito altos.

Isso representa uma oportunidade desperdiçada, pois a IA generativa pode ser uma ferramenta extremamente poderosa nos negócios. Com os dados certos, um gerente poderia solicitar, por exemplo: “identifique os clientes que estão em risco de fechar a conta e sugira ofertas para retê-los.” Um profissional de marketing poderia pedir: “apresente ideias de campanha para o lançamento do novo produto no quarto trimestre, com base no que deu certo nos lançamentos anteriores.”

A chave para viabilizar esse tipo de resposta são modelos de linguagem menores, que podem ser operados e treinados dentro dos ambientes de nuvem das próprias empresas. Esses modelos podem ser personalizados por meio de treinamento com dados corporativos sensíveis e têm custos significativamente menores.

DE QUÃO PEQUENO ESTAMOS FALANDO?

LLMs são supostamente treinados com mais de 100 bilhões de “parâmetros”, ou seja, valores que determinam o comportamento do modelo. Isso os torna extremamente caros de construir e operar – estima-se que o custo para treinar o ChatGPT tenha sido de US$ 4 milhões.

Modelos menores podem ter até um bilhão de parâmetros – apesar de ainda grandes, não chegam perto do tamanho dos LLMs fundamentais, como ChatGPT e Bard. Além disso, já são pré-treinados para compreender o vocabulário e a fala humana. Assim, o custo adicional para personalizá-los usando dados corporativos e específicos da indústria é consideravelmente menor.

modelos reduzidos podem ser personalizados com dados corporativos sensíveis e têm custos significativamente menores.

Esses modelos não são apenas mais eficientes em termos de custo, mas também costumam ser mais precisos, pois, em vez de serem treinados em todos os tipos de dados disponíveis – sejam bons ou ruins –, são otimizados com dados criteriosamente selecionados, que abordam exatamente os casos de uso relevantes para o negócio.

No entanto, isso não significa que eles estejam limitados aos dados corporativos internos. Modelos menores podem incorporar dados de terceiros sobre economia, preços de commodities, clima ou qualquer outro conjunto de dados necessário, e combiná-los com os da empresa. Fontes de dados confiáveis estão amplamente disponíveis por meio de provedores de serviços que garantem que as informações sejam atualizadas e precisas.

O QUE O FUTURO RESERVA PARA OS LLMs

No futuro, é possível que tenhamos apenas algumas dezenas de LLMs fundamentais amplamente utilizados no mundo, operados por gigantes da tecnologia como Meta, Google e Baidu. Assim como os serviços de busca de hoje, esses modelos demandam recursos imensos para manutenção, e a economia não comporta centenas de chatbots como o Bard e o ChatGPT.

Entretanto, consigo ver um futuro com milhares de modelos menores operando em empresas ou departamentos e fornecendo insights valiosos para os colaboradores. Eles serão incrivelmente úteis e são a chave para liberar o verdadeiro potencial da IA generativa nos negócios.


SOBRE O AUTOR

Torsten Grabs é diretor sênior de gestão de produtos da Snowflake. saiba mais