Por que a Apple decidiu terceirizar parte da tecnologia de sua IA

A mitigação de riscos pode estar por trás da adoção do modelo de linguagem da OpenAI. Mas a Apple nega que tenha sido este o motivo

Crédito: Nikolai Chernichenko/ Unsplash

Mark Sullivan 2 minutos de leitura

A Apple foi bastante estratégica ao revelar seus novos recursos de IA generativa para iPhones, Macs e iPads. Muitos deles utilizam os próprios modelos de inteligência artificial da empresa – alguns são executados diretamente nos dispositivos e outros, na nuvem. 

Isso não foi surpresa, considerando-se que ela sempre utilizou tecnologias próprias em seus produtos. O que chamou a atenção, no entanto, foi sua decisão de se associar à OpenAI para oferecer o ChatGPT aos seus usuários.

A Apple vem trabalhando com aprendizado de máquina há anos. Em 2018, a empresa contratou John Giannandrea, ex-chefe de pesquisa e inteligência artificial do Google, para liderar sua estratégia de IA. Então, por que não desenvolveu seu próprio grande modelo de linguagem (LLM, na sigla em inglês) como os concorrentes?

É verdade que desenvolver um modelo de linguagem avançado exige muito talento em pesquisa, poder computacional e tempo. Mas a Apple tinha acesso a tudo isso.

A razão pela qual não investiu fortemente em um chatbot alimentado por um LLM próprio pode ser a mesma que fez o Google hesitar em um primeiro momento: o risco de que vazasse informações privadas dos usuários ou segredos comerciais de uma empresa, espalhasse desinformação, difamasse alguém ou divulgasse informações perigosas (como planos para uma arma biológica, por exemplo). 

Quando a OpenAI lançou o ChatGPT, no final de 2022, as preocupações das big techs com esses riscos foram deixadas de lado, já que começaram a temer ficar para trás em uma tecnologia potencialmente transformadora (e serem penalizadas por isso na bolsa de valores). Mas não a Apple.

Os recursos de IA que ela apresentou – como correções de fotos, criação de emojis e resumo de textos – realizam uma lista controlada de funções de baixo risco. O ChatGPT e chatbots similares são muito mais abrangentes.

Eles podem ser usados para uma ampla gama de tarefas e são geralmente mais imprevisíveis em suas respostas – a OpenAI enfrenta processos por difamação e violação de direitos autorais por causa das respostas do seu modelo. 

desenvolver um modelo de linguagem avançado exige muito talento em pesquisa, poder computacional e tempo.

“Acredito que este foi um dos motivos”, afirma Ben Bajarin, analista da Creative Strategies. “E é também por isso que eles [a Apple] podem não focar tanto nisso [no recurso ChatGPT] e se concentrar mais em funcionalidades que parecem mais valiosas e úteis.”

A Apple nega que a mitigação de riscos esteja por trás da sua decisão de utilizar um chatbot de terceiros. A empresa afirmou que a decisão foi mais para permitir que os usuários acessem um chatbot de IA sem precisar sair do contexto em que estão trabalhando dentro do sistema operacional.

“Para consultas mais amplas, terceirizar tarefas para a OpenAI, com a divulgação de transferência de dados para terceiros, vai manter a integridade da marca confiável da Apple”, observa Jeremiah Owyang, investidor da Blitzscaling Ventures.

Mas isso também pode ajudá-la de outras maneiras. “A vantagem estratégica é que ela pode analisar as consultas enviadas à OpenAI, aprender com elas e melhorar seus próprios modelos”, acrescenta.


SOBRE O AUTOR

Mark Sullivan é redator sênior da Fast Company e escreve sobre tecnologia emergente, política, inteligência artificial, grandes empres... saiba mais