Elon Musk entra firme no ramo da IA. O que poderia dar errado?

O bilionário tem um histórico de remodelar empresas à sua imagem. Isso pode ser particularmente perigoso quando se trata de IA

Créditos: Starline/ Freepik/ vackground.com/ Unsplash/ Chesnot/ Getty Images

Mark Sullivan 4 minutos de leitura

Elon Musk anunciou o lançamento de sua nova empresa de inteligência artificial, chamada xAI. A startup já conta com uma equipe extremamente talentosa e provavelmente se dedicará ao desenvolvimento de grandes modelos de linguagem (LLMs, na sigla em inglês), o que pode indicar um desejo de desafiar a OpenAI, líder atual em inteligência artificial. Musk foi um de seus fundadores, mas se desligou da empresa em 2018 e, desde então, vem criticando abertamente seu modelo de negócios e sua liderança.

A proposta da xAI, conforme descrito em seu site, é “compreender a natureza do universo”. Essa breve declaração sugere que a empresa pode usar a IA para explorar questões maiores e cientificamente complexas.

Os LLMs poderão ser treinados, por exemplo, para modelar fenômenos supercomplexos como matéria escura ou buracos negros, ou para modelar ecossistemas que estão sofrendo com as mudanças climáticas. Muitos na comunidade científica veem isso como uma área de alto potencial.

Créditos: iconeer/ Getty Images/ Markus Spiske/ Unsplash

RISCOS DE VIÉS

Poucos detalhes foram revelados sobre a xAI, mas agora sabemos os nomes da equipe principal de pesquisadores e profissionais de IA escolhidos para construir a visão de Elon Musk para a inteligência artificial. O site lista 12 homens – nenhuma mulher – como membros do grupo pesquisadores. A equipe é assessorada por Dan Hendrycks, diretor da organização sem fins lucrativos Center for AI Safety.

Porém, essa falta de representatividade é uma questão importante, visto que os LLMs são propensos a refletir e reproduzir os vieses dos dados de treinamento. Eles são treinados em linguagem, não necessariamente em fatos, geralmente coletada em grande quantidade da internet. Remover os vieses e as imprecisões demanda muitas horas de trabalho e julgamento humano. 

As IAs, assim como as armas nucleares, podem ser potencialmente superperigosas para os seres humanos.

Com um “defensor absoluto da liberdade de expressão” à frente da organização, como a xAI conseguirá remover efetivamente o viés de gênero dos dados de treinamento? Quais serão os limites impostos aos modelos para evitar que reproduzam vieses em suas respostas?

Caso o processo de treinamento seja semelhante às atuais políticas de moderação do Twitter implementadas por Musk, os modelos da xAI poderão se comportar como ele. O grande problema é que, em aplicações sérias de inteligência artificial, isso não funciona.

VANTAGENS

Por outro lado, é importante ressaltar que os membros da equipe da xAI têm uma vasta experiência em empresas renomadas. Eles vêm de organizações como o Google DeepMind, a OpenAI e o programa de pesquisa em inteligência artificial da Universidade de Toronto. Todos têm várias publicações e parecem capazes de impulsionar a pesquisa além das limitações atuais.

A equipe será generosamente financiada e, provavelmente, poderá contar com os recursos de que precisam. Além disso, terá acesso a pesquisadores e engenheiros que já estão trabalhando em inteligência artificial na Tesla e SpaceX e a uma quantidade considerável de poder computacional. Vale lembrar que Musk supostamente comprou cerca de 10 mil GPUs no início do ano para um projeto de IA generativa dentro do Twitter.

LLMs precisam ser treinados em grandes volumes de texto orgânico abrangendo uma ampla variedade de tópicos. É por isso que a OpenAI treinou os modelos do ChatGPT em conversas do Twitter.

Musk já tomou medidas para impedir que outras empresas acessem esse rico material para treinar novos modelos de linguagem. Se esses dados forem usados apenas para treinar modelos da xAI, isso pode se tornar uma grande vantagem.

É SEGURO?

As IAs, assim como as armas nucleares, podem ser potencialmente superperigosas para os seres humanos. Muitos acreditam que elas podem acabar com empregos a curto prazo e representar até mesmo ameaças existenciais à humanidade no futuro. No início deste ano, Musk assinou uma carta pedindo uma “pausa” no desenvolvimento de LLMs por esses motivos.

Agora, o imprevisível (e muitas vezes estranho) magnata da tecnologia estará liderando o desenvolvimento de modelos poderosos de IA generativa. Isso, por si só, pode reacender a pressão por mais regulamentações sobre como os grandes modelos de inteligência artificial são construídos, treinados e utilizados.

Crédito: melis82/ rawpixel/ Envato Elements

Enquanto a União Europeia avança rapidamente com um pacote de regulamentações, os EUA ainda parecem estar longe de aprovar uma lei, apesar dos apelos da Casa Branca para fazê-lo até 2026.

Estou hesitante em afirmar que a xAI é apenas um projeto de vaidade para Musk. A empresa provavelmente não conseguirá bater de frente com a OpenAI em LLMs em um futuro próximo, mas existem outros modelos que podem ser desenvolvidos e aplicados de maneiras significativas.

A principal preocupação é a segurança. Musk pode se envolver tanto na corrida da IA a ponto de orientar sua equipe a criar atalhos em termos de segurança.


SOBRE O AUTOR

Mark Sullivan é redator sênior da Fast Company e escreve sobre tecnologia emergente, política, inteligência artificial, grandes empres... saiba mais