5 perguntas para Helen Toner, especialista em políticas e segurança de IA
Ex-membro do conselho da OpenAI, ela agora se dedica à pesquisa em segurança e formulação de políticas públicas para lidar com a IA

No dia 17 de novembro de 2023, Helen Toner deixou de ser uma figura relativamente desconhecida no conselho da OpenAI para se tornar uma das vozes mais influentes no debate sobre inteligência artificial responsável. Especialista em políticas e segurança de inteligência artificial, Toner votou, junto com a maioria dos membros do conselho, pela demissão do CEO Sam Altman.
A decisão foi motivada por preocupações com a falta de transparência de Altman, sua postura em relação à segurança da IA e alegações de conduta inadequada com funcionários.
Porém, grandes investidores e colaboradores se opuseram à saída, exigindo o retorno do ex-CEO ao cargo – que ocorreu em 22 de novembro. Sua volta marcou a saída de Toner e a reformulação do conselho de administração da empresa. O que Toner jamais imaginou foi que uma votação do conselho a transformaria em um nome conhecido na política de tecnologia.
Quando a crise de liderança da OpenAI veio a público em 2023, seu papel como conselheira – e como uma das vozes mais proeminentes da comunidade de segurança em IA – colocou-a no centro da disputa mais importante do Vale do Silício sobre o futuro da inteligência artificial.
Essa experiência a levou a uma posição incomum: alguém em quem tanto o governo dos EUA quanto o Vale do Silício confiam para falar de forma direta sobre os riscos da IA.
Hoje, Toner lidera o Centro para Segurança e Tecnologias Emergentes (CSET, na sigla em inglês), entidade de pesquisa ligada à Universidade Georgetown, em Washington D.C. Sua missão é canalizar a credibilidade duramente conquistada para moldar como os Estados Unidos enfrentam os desafios apresentados pela tecnologia.
Nesta entrevista à Fast Company, ela fala sobre a competição entre EUA e China no campo da inteligência artificial, a crescente influência do lobby da indústria e os desafios de proteger a IA em um cenário que evolui rapidamente.
Fast Company – O que um think tank de tecnologia em Washington pode fazer para influenciar o futuro da IA?
Helen Toner – O CSET é uma organização de 50 pessoas dentro da Universidade de Georgetown, focada em pesquisa de políticas públicas.
Nossa missão é defender o interesse público, não o faturamento.
Não somos acadêmicos. Fazemos análises, escrevemos relatórios e elaboramos briefings para formuladores de políticas públicas, para ajudar autoridades e outros tomadores de decisão a entender as implicações das tecnologias emergentes para seu trabalho, especialmente no lado da segurança nacional.
Nessa nova função, vou liderar a organização como um todo. Isso significa ajudar toda a equipe – os pesquisadores, a equipe dados, que é o coração do modelo baseado em evidências do CSET, além das áreas de operações e relações externas – a trabalhar de forma integrada e bem-sucedida.
Fast Company – Muitos tentam avaliar se os EUA ainda estão em vantagem em modelos de IA, robótica, automação etc. Qual é sua visão?
Helen Toner – O CSET já produziu muito trabalho sobre isso e é conhecido por oferecer análises sólidas sobre o que está acontecendo na China, que claramente quer competir com os EUA.
Acho que, de ambos os lados, algumas pessoas falam de uma corrida verdadeira rumo à inteligência artificial geral (IAG) ou à superinteligência. Outras veem a competição no mesmo sentido de mercado de consumo – conquistar usuários, gerar receita.

Na área militar, porém, trata-se de uma competição claramente de soma zero: os EUA querem que suas forças armadas sejam mais fortes e eficazes que as chinesas, e a China quer o oposto. Então é muito importante pensar em como adotar a IA de forma eficaz no setor militar. Mas essa é uma questão diferente do que quem lançou o modelo mais novo e inteligente.
Em resumo, existe competição real, mas o que exatamente isso significa depende de quem responde e de qual tipo de competição está em foco. É preciso observar indicadores diferentes e considerar tipos distintos de sucesso. A resposta sobre quem está “na frente” muda conforme a área analisada.
A China se vê como uma grande civilização que, por várias razões, ficou para trás nas três primeiras revoluções industriais e acabou em uma posição abaixo do que considera condizente com seu status de grande potência. Para eles, a IA é uma oportunidade de reverter essa trajetória e se tornar um líder global.
Fast Company – As empresas de IA dos EUA investem o suficiente em pesquisa de segurança se comparado ao gasto com pesquisa e desenvolvimento tradicional? É possível medir isso?
Helen Toner – De modo geral, não sei se existe uma distinção clara entre P&D tradicional e P&D em segurança. Muitas vezes, essas áreas se conectam. Se um modelo falha sistematicamente em certo tipo de pergunta, isso pode ser visto tanto como um problema de segurança quanto como um problema de usabilidade ou capacidade.
é muito importante pensar em como adotar a IA de forma eficaz no setor militar.
As questões mais relevantes são sobre decisões que seriam benéficas para o mundo, mas talvez não para os interesses comerciais de curto prazo. Quais estruturas e processos essas empresas têm para tomar essas decisões? Elas realmente as seguem?
Já vimos casos em que empresas se comprometeram a realizar certos testes, mas, segundo reportagens off the record, esses testes foram apressados ou incompletos porque a empresa queria lançar algo antes de um concorrente.
Fast Company – Muita gente fala em uma possível bolha de IA. As empresas estão mais focadas em lançar modelos mais avançados e gerar receita do que em metas mais ambiciosas, como IAG e superinteligência?
Helen Toner – Sim, há muito burburinho sobre uma bolha. A visão que mais faz sentido para mim é a de que podem ser verdade as duas coisas: existem investimentos de risco supervalorizados em startups de IA generativa prometendo produtos revolucionários em poucos anos, e isso pode ser uma bolha.

Essas expectativas podem estar infladas demais. Mas também é verdade que os avanços tecnológicos de base continuam, e que as empresas realmente investindo nessas tendências, como OpenAI e Anthropic, estão trabalhando em algo sólido e provavelmente seguirão crescendo e aumentando suas receitas.
Outra forma de explicar isso é olhar para o estouro da bolha das pontocom no início dos anos 2000: investidores perderam muito dinheiro, mas as tendências estruturais eram reais e o impacto na sociedade continuou depois que a bolha estourou.
Fast Company – Parece que as empresas de IA estão gastando mais em lobby. Existe uma estratégia para impedir que regulações de segurança ganhem força no Congresso?
Helen Toner – Vimos um aumento significativo no tamanho e na sofisticação dos esforços das empresas de IA em Washington. Algumas delas já tinham operações robustas há tempos, mas conforme crescem – e conforme cresce o interesse do governo no trabalho delas – estão ampliando suas equipes.
Um grande motivador do trabalho do CSET é oferecer uma perspectiva tecnicamente informada e precisa sobre esses temas. Muitas vezes, funcionários do Congresso e outras autoridades recebem essas informações das próprias empresas de IA: elas explicam como a tecnologia funciona, como o setor opera, o que é realista ou não.
É importante que os formuladores de políticas tenham essas informações, mas o ideal é que também as recebam de uma parte que opere pelo interesse público, não pelo interesse corporativo. Nossa missão é defender o interesse público, não o faturamento.