Não precisa ter medo: ainda estamos muito longe de criar uma super IA

Teorias sobre superinteligências artificiais fazem com que os modelos de IA pareçam mais avançados do que realmente são

Crédito: Tara Winstead/ Pexels

Mark Sullivan 2 minutos de leitura

Há meses, venho escrevendo sobre preocupações de que a OpenAI, sob a liderança de Sam Altman, estaria muito mais interessada em lançar novos produtos de IA do que em fazer o trabalho árduo de torná-los seguros. Bem, essas práticas de segurança agora são uma notícia de âmbito muito mais amplo.

Há duas semanas, Jan Leike, que liderava a equipe de superalinhamento na OpenAI, deixou a empresa por essa razão. Na semana passada, um grupo de cinco ex-pesquisadores da OpenAI assinou uma carta aberta dizendo que a empresa e outras não estão levando a sério a proteção de grandes modelos de inteligência artificial.

À medida que os modelos de IA se tornaram uma oportunidade de investimento quente, os laboratórios de pesquisa pararam de compartilhar abertamente suas pesquisas de segurança com a comunidade tecnológica.

“As empresas de IA... atualmente têm apenas fracas obrigações de compartilhar algumas dessas informações com os governos, e nenhuma com a sociedade civil”, diz a carta, ao exigir que as empresas ajam com mais transparência sobre os potenciais danos de seus modelos de IA e sobre o trabalho de segurança destinado a mitigar os riscos.

Créditos: vackground.com/ Unsplash/ koya79/ iStock/ Rawpixel

Os signatários da carta também pedem que as empresas parem de usar amplos acordos de confidencialidade para impedir que denunciantes falem – vários outros funcionários da OpenAI assinaram anonimamente, temendo represálias, assim como um pesquisador e um ex-pesquisador da Google DeepMind.

“Estamos orgulhosos do nosso histórico de fornecimento dos sistemas de IA mais capazes e seguros”, disse Lindsey Held, porta-voz da OpenAI, em um comunicado. Fácil de dizer agora, quando as ferramentas de IA ainda estão longe de ter a intuição, capacidade de raciocínio e agência para serem verdadeiramente perigosas.

os laboratórios de pesquisa pararam de compartilhar abertamente suas pesquisas de segurança com a comunidade tecnológica.

Ainda não vimos um sistema de IA agir de forma autônoma para, por exemplo, desligar a rede elétrica ou gerar uma receita para uma arma biológica letal que pode ser feita na cozinha de alguém.

Em última análise, empresas como a OpenAI não são prejudicadas por toda essa preocupação com questões de segurança. Na verdade, elas se beneficiam disso.

Esse ciclo de notícias alimenta o hype de que os modelos de IA estão à beira de alcançar a "inteligência artificial geral", o que significaria que os modelos são, no geral melhores do que os seres humanos em tarefas de pensamento (ainda aspiracional hoje).

Além disso, se os governos se sentirem motivados a impor regulamentações rígidas sobre o desenvolvimento de IA, isso só fortalecerá as empresas de tecnologia com bom financiamento que já as construíram.


SOBRE O AUTOR

Mark Sullivan é redator sênior da Fast Company e escreve sobre tecnologia emergente, política, inteligência artificial, grandes empres... saiba mais