IA já faz experimentos biológicos sozinha – e preocupa

IA já conseguem executar experimentos de forma autônoma e em escala, mas as regulações existentes não foram feitas para esse cenário

uso de IA para pesquisa em laboratórios
Créditos: akinbostanci/ EyeEm Mobile GmbH/ BlackJack3D/ Getty Images

Stephen D. Turner 5 minutos de leitura

A inteligência artificial está aprendendo rapidamente a projetar e conduzir experimentos biológicos de forma autônoma, mas os sistemas criados para governar essas capacidades estão ficando para trás.

A OpenAI e a companhia de biotecnologia Ginkgo Bioworks anunciaram, em fevereiro, que o GPT-5 projetou e executou de forma autônoma 36 mil experimentos biológicos. Isso foi feito por meio de um laboratório robótico em nuvem – uma instalação onde equipamentos automatizados, controlados remotamente por computadores, realizam experimentos.

O modelo de IA propôs os desenhos dos estudos, enquanto robôs os executaram e devolveram os dados ao sistema para a próxima rodada. Humanos definiram o objetivo e as máquinas fizeram grande parte do trabalho em laboratório, reduzindo em 40% o custo de produzir uma proteína específica.

É a chamada biologia programável: projetar componentes biológicos no computador e construí-los no mundo físico, com a IA fechando esse ciclo.

Durante décadas, a biologia avançou principalmente da observação para a compreensão. Cientistas sequenciaram genomas para mapear todo o DNA dos organismos, entendendo como os genes codificam as proteínas responsáveis pelas funções vitais.

A invenção de ferramentas como o CRISPR permitiu editar esse DNA para fins específicos, como desativar genes ligados a doenças. Agora, a IA acelera uma terceira fase, na qual computadores podem tanto projetar sistemas biológicos quanto testá-los rapidamente.

O processo se assemelha menos ao trabalho tradicional de bancada e mais à engenharia: projetar, construir, testar, aprender e repetir. Enquanto um experimento clássico testa uma única hipótese, a biologia programável guiada por IA explora milhares de variações em paralelo, iterando como um engenheiro que aprimora um protótipo.

ferramenta de edição  de genes CRISPR
Crédito: Natali_Mis/ iStock

O problema é que as medidas de segurança e regulamentações atuais não acompanharam esse avanço, e a lacuna entre o que a IA pode fazer na biologia e o que os sistemas de governança conseguem lidar está crescendo.

Pesquisadores alertam que essas mesmas ferramentas podem ser usadas de forma indevida, no chamado problema de “duplo uso”: tecnologias criadas para o bem também podem ser adaptadas para causar danos. Por exemplo, modelos atuais de IA já conseguem orientar usuários nas etapas técnicas para recuperar vírus vivos a partir de DNA sintético.

Estudos indicam que a IA pode reduzir barreiras em várias fases do desenvolvimento de uma arma biológica, e que a supervisão atual não aborda adequadamente esse risco.

O RISCO DA BIOLOGIA COM IA

Cientistas experientes já utilizam IA para planejar e desenhar experimentos biológicos. A questão agora é se essas ferramentas podem permitir que pessoas com pouca formação na área realizem trabalhos laboratoriais perigosos.

Dois estudos recentes chegaram a conclusões diferentes.

Um estudo da Scale AI em parceria com a organização de biossegurança SecureBio mostrou que pessoas com pouca experiência em biologia, ao usarem modelos de linguagem, conseguiram executar tarefas relacionadas à biossegurança – como resolver problemas em protocolos complexos de virologia – com quatro vezes mais precisão. Em alguns casos, esses iniciantes superaram especialistas treinados.

modelos atuais de IA já conseguem orientar usuários nas etapas técnicas para recuperar vírus vivos a partir de DNA sintético.

Cerca de 90% desses usuários relataram pouca dificuldade em obter dos modelos informações biológicas sensíveis, como instruções detalhadas para lidar com patógenos perigosos, apesar dos filtros de segurança.

Já um estudo liderado pela Active Site concluiu que o uso de IA não gerou diferenças significativas na capacidade de iniciantes completarem o complexo processo de produzir um vírus em laboratório de biossegurança.

Ainda assim, o grupo com apoio de IA teve mais sucesso na maioria das tarefas e concluiu algumas etapas mais rapidamente, especialmente o cultivo de células em laboratório.

Leia mais: IA consegue prever como novas drogas vão interagir com o corpo humano

Tradicionalmente, o trabalho prático sempre foi um gargalo para transformar projetos em resultados. Mesmo um plano brilhante depende de mãos humanas qualificadas.

Isso pode mudar à medida que laboratórios em nuvem e automação robótica se tornam mais baratos e acessíveis, permitindo que pesquisadores enviem experimentos projetados por IA para execução remota.

COMO RESPONDER AOS RISCOS BIOLÓGICOS DA IA

Os sistemas de IA já conseguem executar experimentos de forma autônoma e em escala, mas as regulações existentes não foram feitas para esse cenário. As regras da pesquisa biológica não consideram a automação por IA, e as regras sobre IA não tratam especificamente de seu uso na biologia.

Além disso, as avaliações de segurança feitas por empresas antes de lançar novos modelos muitas vezes são pouco transparentes e inadequadas para capturar riscos do mundo real.

edição genética

Pesquisadores estimam que até pequenas melhorias na capacidade de uma IA de planejar experimentos com patógenos podem resultar em milhares de mortes adicionais por bioterrorismo a cada ano. Ainda não está claro quando essas capacidades cruzarão limites críticos.

Algumas empresas começaram a adotar medidas voluntárias. A Anthropic ativou seu nível máximo de segurança ao lançar seu modelo mais avançado em meados de 2025. No mesmo período, a OpenAI atualizou seu Preparedness Framework, revisando os limites de risco biológico aceitáveis antes da necessidade de salvaguardas adicionais.

Mas essas iniciativas ainda são voluntárias e específicas de cada empresa. O CEO da Anthropic, Dario Amodei, já alertou que o ritmo de desenvolvimento da IA pode em breve superar a capacidade de qualquer empresa individual de avaliar os riscos de seus próprios modelos.

Leia mais: Indústria da beleza é um dos principais setores na vanguarda da biociência

Em ambientes bem controlados, a IA pode ajudar cientistas a atingir rapidamente seus objetivos de pesquisa. O que acontece quando essas mesmas capacidades operam fora desses controles ainda é uma pergunta sem resposta nas políticas públicas.

Este artigo foi republicado do "The Conversation" sob licença Creative Commons. Leia o artigo original


SOBRE O AUTOR

Stephen D. Turner é professor associado de ciência de dados na Universidade da Virgínia. saiba mais