OpenAI quase detonou um negócio de US$ 80 bi por medo da IA geral

O “risco existencial” da IA foi o motivo alegado para o racha na empresa. Mas observadores apontam outro tipo de pressão

Créditos: Carolin Thiergart/ Mojahid Mottakin/ Unsplash

Chris Stokel-Walker 4 minutos de leitura

Na noite de terça-feira (21 de novembro), a OpenAI anunciou que havia chegado a um acordo para que o cofundador e recentemente destituído CEO Sam Altman retornasse à empresa. O ex-presidente Greg Brockman, que renunciou em protesto contra a demissão de Altman, também voltaria ao seu antigo cargo.

Como parte do acordo, a organização, avaliada em US$ 80 bilhões, terá um novo conselho administrativo, composto por Bret Taylor, Larry Summers e Adam D'Angelo – este último, o único remanescente do conselho anterior.

Isso aparentemente põe um fim a um dos dramas corporativos mais intensos da história do Vale do Silício: dispensado pelo conselho na sexta-feira (17 de novembro), Altman e o presidente demissionário Brockman foram contratados na segunda-feira (20 de novembro) pela Microsoft para liderar uma nova área de IA dentro da empresa – que tem uma participação de US$ 13 bilhões na OpenAI.

Em resposta à demissão de Altman, 95% dos funcionários da OpenAI divulgaram um comunicado ameaçando sair se ele não fosse reintegrado. Detalhe: um dos que assinou o comunicado foi o cofundador e cientista-chefe da OpenAI Ilya Sutskever, que estava no conselho original e apoiou a saída de Altman.

E agora, aqui estamos, com Altman de volta ao comando e um conselho aparentemente mais favorável a ele.

O QUE REALMENTE ACONTECEU?

As razões por trás da quase autodestruição da OpenAI em poucos dias ainda não estão completamente claras, mas acredita-se que girem em torno de uma disputa entre Altman e Sutskever sobre os rumos da empresa.

Altman foi alvo de críticas por tentar acelerar o desenvolvimento da tecnologia de IA da empresa. Especificamente, há um esforço para alcançar a inteligência artificial geral (ou IAG), que se refere à IA que pode aprender qualquer tarefa intelectual que os seres humanos possam realizar.

não há dados confiáveis que sugiram um consenso de que a inteligência artificial é, de fato, uma ameaça.

Vale notar que Sutskever lidera a equipe de superalinhamento da OpenAI, criada para evitar que a inteligência artificial se descontrole e ignore as ordens humanas. E talvez seja significativo que o substituto de Altman por 36 horas tenha sido o ex-CEO da Twitch, Emmett Shear, um defensor do desenvolvimento cauteloso de IA.

Assim, tudo indica que o motivo real da divisão dentro da empresa é a diferença de opiniões sobre os riscos percebidos da superinteligência. A maioria das pessoas acredita que não se trata de um risco real.

“É difícil ver como isso provocaria a uma mudança em relação ao viés, toxicidade, alucinações, o ChatGPT causando dores de cabeça para os professores, roubo do trabalho dos escritores e a aspiração geral dessa tecnologia como algo para os chefes substituírem os trabalhadores", diz Willie Agnew, pesquisador na Universidade de Washington que estuda ética em IA. Todos esses são problemas que, comprovadamente, afligem a OpenAI.

AMEAÇA OU ALARMISMO?

Movimentos organizados por grupos como o Altruísmo Eficaz (EA) – que acredita que o risco de uma IA fora de controle é real – chamaram a atenção do público. O Instituto Futuro da Vida ganhou as manchetes em março com uma carta aberta na qual pedia uma pausa no desenvolvimento de IA.

Na sequência, uma carta de outro grupo, o Centro de Segurança de IA (divulgada em maio), alertou que a tecnologia poderia ser mais perigosa para a humanidade do que as armas nucleares. No entanto, não há dados confiáveis que sugiram um consenso de que a inteligência artificial é, de fato, uma ameaça.

Sam Altman (Crédito: Getty Images)

“Para qualquer outro tipo de risco – armas nucleares, pandemias, aquecimento global, impactos de asteroides – temos alguma evidência de que pode acontecer e uma ideia de como aconteceria", diz Julian Togelius, professor associado em IA na Universidade de Nova York. "Para 'superinteligência', não temos nada disso." Para ele, "a ideia de IAG nem mesmo é conceitualmente coerente.”

A opinião é compartilhada por Sasha Luccioni, pesquisadora em IA ética e sustentável na Hugging Face. "Se a IAG é realmente a questão por trás de todo esse drama, então a OpenAI, definitivamente, tem preocupações mais urgentes."

MOVER-SE RÁPIDO E QUEBRAR COISAS

Luccioni está preocupada com o fato de as pessoas dependerem do ChatGPT para ajudar em áreas como saúde mental – um trabalho para o qual ele é totalmente não qualificado. Também teme o impacto de uma avalanche de desinformação gerada por IA que poderia afetar o resultado da eleição presidencial dos EUA em 2024.

"Esses são temas que deveriam ser abordados já, em vez da ameaça teórica da IAG, que é completamente hipotética”, argumenta.

tudo indica que o motivo real da divisão dentro da empresa é a diferença de opiniões sobre os riscos percebidos da superinteligência.

A questão agora é se alguma coisa vai mudar na OpenAI. Mesmo que o conselho tenha lidado mal com a saída de Altman, deve-se deixar em aberto a possibilidade de que suas intenções fossem boas e corretas. Afinal, o produto da empresa pode ser tremendamente perigoso em mãos erradas.

O mantra do Vale do Silício de "mover-se rápido e quebrar coisas" faz tanto sentido na IA quanto faria com armas nucleares. Empresas de inteligência artificial precisam investir muito tempo estudando os potenciais casos de uso prejudiciais. Os riscos podem ser maiores do que imaginamos.

É possível que a OpenAI tenha feito mais progresso em direção à IA geral do que foi admitido em público. Isso elevaria consideravelmente os riscos de segurança e poderia colocar o drama de Altman sob uma nova luz – muito mais assustadora.

Colaborou Mark Sullivan.


SOBRE O AUTOR

Chris Stokel-Walker é um jornalista britânico com trabalhos publicados regularmente em veículos, como Wired, The Economist e Insider saiba mais