Amazon chega atrasada à corrida da IA generativa, por um bom motivo

A Amazon anuncia que oferecerá aos clientes da nuvem AWS a chance de aproveitar alguns dos novos modelos de IA generativa mais populares

Créditos: iLexx/ Duallogic/ Envato Elements

Mark Sullivan 2 minutos de leitura

Quatro das cinco maiores empresas de tecnologia já fincaram suas bandeirinhas no território da IA generativa.

Na semana passada, a Amazon anunciou sem muito alarde que ofereceria a seus clientes da nuvem Amazon Web Services (AWS) a chance de aproveitar alguns dos novos modelos de IA generativa mais populares, incluindo aqueles desenvolvidos pela Anthropic (para conversas e perguntas), AI21 Labs (para tradução) e Stability AI (para geração de imagem).

A Amazon adiciona a essa mistura o acesso a alguns de seus próprios modelos, chamados coletivamente de “Titan”, que são projetados para traduzir e resumir entradas de texto.

Esse conjunto de modelos básicos tem a marca Amazon Bedrock. A nuvem AWS oferece aos clientes acesso aos modelos por meio de uma interface de programação de aplicativos (API).

a Amazon está oferecendo um menu de modelos de IA generativas desenvolvidas por programadores de LLM menores, bem como um LLM local.

Mas, como a própria marca sugere (bedrock significa alicerce, fundamento), esses modelos formam apenas uma base. A AWS ajudará os clientes corporativos a criar camadas adicionais nesses modelos, para que possam ser usadas em operações mais sensíveis (que demandem maior grau de confiabilidade e segurança).

A Amazon diz, ainda, que fornecerá um meio seguro para que os clientes compartilharem seus dados corporativos com modelos de IA na nuvem, sem risco de vazamentos de dados.

“A Amazon está, basicamente, dando opções aos desenvolvedores e clientes, incluindo seu próprio LLM [large language model, ou grande modelo de linguagem], o Titan, e fornecendo os hooks e ferramentas de API para torná-lo fácil e contínuo”, diz o CEO e principal analista da Creative Strategies, Ben Bajarin.

“As ferramentas que a Amazon está fornecendo também reconhecem a necessidade de empresas (clientes da AWS) trazerem seus próprios dados, em LLMs menores, para a equação.”

DESENVOLVEDORES INDEPENDENTES

A Salesforce adotou uma abordagem semelhante quando anunciou, no início de março, que permitiria que os desenvolvedores de sua plataforma escolhessem entre grandes modelos de linguagem desenvolvidos por terceiros, incluindo OpenAI, Cohere e Anthropic. A empresa também diz que ajudará os clientes a disponibilizar seus dados proprietários para o LLM, para tornar o modelo mais fundamentado e mais útil.

A forma como a Amazon aborda a IA generativa é diferente da de seus rivais na nuvem. Em vez de oferecer uma solução totalmente desenvolvida internamente (como o Google) ou de alavancar um investimento em um parceiro talentoso (como a Microsoft, junto com a OpenAI), a Amazon está oferecendo a seus clientes da AWS um menu de modelos de IA generativas desenvolvidas por programadores de LLM menores, bem como um LLM local.

Em um vídeo publicado no Twitter, o CTO da AWS, Werner Vogels, compartilhou algumas informações sobre como a Amazon idealiza seus modelos de IA generativa.

Estamos vendo uma explosão do interesse por LLMs, modelos de fundação e IA generativa em conversas cotidianas. Mas poucos entendem a tecnologia por trás disso. Eu me encontrei com @SwamiSivasubram para aprender mais

O anúncio da Amazon chegou atrasado em relação aos da Microsoft e do Google. Mas a espera pode ter valido a pena, porque sua abordagem aberta para seleção de modelo e foco em dados dos proprietários tem tudo para agradar os clientes mais fiéis.


SOBRE O AUTOR

Mark Sullivan é redator sênior da Fast Company e escreve sobre tecnologia emergente, política, inteligência artificial, grandes empres... saiba mais