Ex-OpenAI se torna uma das vozes mais potentes em favor de IAs responsáveis
Fora do conselho da empresa, especialista em segurança de IA se torna referência para regulação da tecnologia
No dia 17 de novembro de 2023, Helen Toner deixou de ser uma figura relativamente desconhecida no conselho da OpenAI para se tornar uma das vozes mais influentes no debate sobre inteligência artificial responsável. Especialista em políticas e segurança de IA, Toner votou, junto com a maioria dos membros do conselho – incluindo Ilya Sutskever –, pela demissão do CEO Sam Altman.
A decisão foi motivada por preocupações com a falta de transparência de Altman, sua postura em relação à segurança da IA e alegações de conduta inadequada com funcionários.
Porém, grandes investidores e colaboradores se opuseram à saída, exigindo o retorno do ex-CEO ao cargo – que ocorreu em 22 de novembro. Sua volta marcou a saída de Toner, além de indicar que a permanência de Sutskever na empresa agora havia se tornado insustentável.
“Com o aumento das apostas, o discurso da indústria mudou radicalmente”, afirmou Toner em entrevista à Fast Company. “Antes, havia um compromisso com a construção de uma IA confiável e um grande apoio à regulação. Agora, o que vemos é uma corrida para lançar produtos inacabados, enquanto milhões são investidos em lobby para impedir qualquer tentativa séria de legislação.”
A OpenAI foi fundada em 2015 com a promessa de conduzir pesquisas avançadas em inteligência artificial de forma aberta, permitindo que a comunidade científica e o público acompanhassem os avanços. No entanto, à medida que investimentos cresciam, tanto a empresa quanto outros laboratórios acabaram se fechando cada vez mais.
A indústria também parece preferir que os governos deixem o setor regular o desenvolvimento de sua própria tecnologia – uma ideia que Toner considera perigosa e guiada por interesses corporativos.
Ela argumenta que confiar apenas na autorregulação das empresas não é suficiente, especialmente porque o lucro sempre é colocado à frente da segurança. Também defende uma atuação mais forte do governo, com regulamentações obrigatórias sobre transparência e padrões de segurança.
“Certamente, algumas empresas podem tentar fazer o que é certo”, diz ela. “Mas precisamos levar a sério os incentivos da indústria. Seu principal objetivo é impressionar investidores e avançar rapidamente, não proteger o interesse público.”
Atualmente, Toner atua como diretora de estratégia e subsídios de pesquisa no Centro de Segurança e Tecnologia Emergente (CSET) da Universidade de Georgetown, nos EUA, onde orienta formuladores de políticas e financiadores sobre estratégias e diretrizes para a inteligência artificial.
Sua saída da OpenAI, longe de enfraquecer sua influência, consolidou sua reputação como uma das principais vozes na defesa de IAs responsáveis.
confiar na auto regulação das empresas não é suficiente, pois o lucro sempre é colocado à frente da segurança.
Com o rápido avanço e aplicação da inteligência artificial em diversas áreas, projetos de regulamentação têm ganhado força. Muitos legisladores recorreram à experiência de Toner, reconhecendo sua capacidade de transitar entre o universo técnico e o político.
Não à toa, ela já aconselhou reguladores pelo mundo e prestou depoimentos à Comissão de Revisão Econômica e de Segurança EUA-China sobre os impactos da IA na segurança nacional.
“O que vimos desde o lançamento do ChatGPT, há dois anos, é apenas uma amostra do que está por vir”, afirma Toner. “Se os sistemas de IA continuarem evoluindo e se tornando mais poderosos, as mudanças serão ainda mais profundas.”