Não precisa ter medo: ainda estamos muito longe de criar uma super IA
Teorias sobre superinteligências artificiais fazem com que os modelos de IA pareçam mais avançados do que realmente são
Há meses, venho escrevendo sobre preocupações de que a OpenAI, sob a liderança de Sam Altman, estaria muito mais interessada em lançar novos produtos de IA do que em fazer o trabalho árduo de torná-los seguros. Bem, essas práticas de segurança agora são uma notícia de âmbito muito mais amplo.
Há duas semanas, Jan Leike, que liderava a equipe de superalinhamento na OpenAI, deixou a empresa por essa razão. Na semana passada, um grupo de cinco ex-pesquisadores da OpenAI assinou uma carta aberta dizendo que a empresa e outras não estão levando a sério a proteção de grandes modelos de inteligência artificial.
À medida que os modelos de IA se tornaram uma oportunidade de investimento quente, os laboratórios de pesquisa pararam de compartilhar abertamente suas pesquisas de segurança com a comunidade tecnológica.
“As empresas de IA... atualmente têm apenas fracas obrigações de compartilhar algumas dessas informações com os governos, e nenhuma com a sociedade civil”, diz a carta, ao exigir que as empresas ajam com mais transparência sobre os potenciais danos de seus modelos de IA e sobre o trabalho de segurança destinado a mitigar os riscos.
Os signatários da carta também pedem que as empresas parem de usar amplos acordos de confidencialidade para impedir que denunciantes falem – vários outros funcionários da OpenAI assinaram anonimamente, temendo represálias, assim como um pesquisador e um ex-pesquisador da Google DeepMind.
“Estamos orgulhosos do nosso histórico de fornecimento dos sistemas de IA mais capazes e seguros”, disse Lindsey Held, porta-voz da OpenAI, em um comunicado. Fácil de dizer agora, quando as ferramentas de IA ainda estão longe de ter a intuição, capacidade de raciocínio e agência para serem verdadeiramente perigosas.
os laboratórios de pesquisa pararam de compartilhar abertamente suas pesquisas de segurança com a comunidade tecnológica.
Ainda não vimos um sistema de IA agir de forma autônoma para, por exemplo, desligar a rede elétrica ou gerar uma receita para uma arma biológica letal que pode ser feita na cozinha de alguém.
Em última análise, empresas como a OpenAI não são prejudicadas por toda essa preocupação com questões de segurança. Na verdade, elas se beneficiam disso.
Esse ciclo de notícias alimenta o hype de que os modelos de IA estão à beira de alcançar a "inteligência artificial geral", o que significaria que os modelos são, no geral melhores do que os seres humanos em tarefas de pensamento (ainda aspiracional hoje).
Além disso, se os governos se sentirem motivados a impor regulamentações rígidas sobre o desenvolvimento de IA, isso só fortalecerá as empresas de tecnologia com bom financiamento que já as construíram.