Inteligência Artificial: estudo revela falhas graves de segurança em Big Techs; veja os riscos
Relatório internacional aponta quais IAs falham gravemente nos itens mais sensíveis

O avanço acelerado da Inteligência Artificial volta ao centro do debate global após nova análise indicar que empresas como, Anthropic, OpenAI, xAI e Meta, estão "muito aquém dos padrões globais emergentes". O estudo apontou a fragilidades nas práticas de segurança adotadas pelas principais empresas do setor.
Segundo a pesquisa do Future of Life Institute, divulgada na última quarta-feira (3), os especialistas avaliam oito grandes empresas do setor e conclui que nenhuma delas adota medidas suficientes para evitar perda de controle da IAG (Inteligência Artificial Geral) ou o uso indevido de modelos superinteligentes.
O estudo surge após a explosão da Bolha de IA e casos complexos sobre o impacto social de modelos capazes de raciocínio complexo. Diversos episódios envolvendo automutilação e suicídio foram associados ao uso inadequado de chatbots, programas que simulam diálogos em texto ou voz.
O que o relatório aponta?
O relatório mostra que Anthropic, OpenAI, Google DeepMind, xAI, Meta, Z.ai, DeepSeek e Alibaba Cloud recebem notas baixas em segurança existencial, categoria que analisa planos para prevenir danos extremos caso modelos ultrapassem capacidades humanas.
Os especialistas responsáveis pelo estudo afirmam que todas as empresas, com exceção da Anthropic, ficam entre D e F nesse indicador. A análise atribui notas gerais que variam de C+ a D-, com a Anthropic no topo do ranking e a Alibaba na última posição.
A avaliação utiliza 35 indicadores distribuídos por seis domínios, incluindo riscos, governança, compartilhamento de informações, testes de danos, estruturas de segurança e planos de controle da IAG. Embora algumas empresas tenham melhor desempenho em transparência e análise de riscos, falham gravemente nos itens mais sensíveis.
O levantamento destaca ainda que a expansão tecnológica avança mais rápido que as medidas de proteção. Investimentos que chegam a centenas de bilhões por exemplo, US$ 100 bilhões (R$ 100 bilhões), impulsionam o setor enquanto os mecanismos de contenção permanecem insuficientes.
Leia mais: Inteligência Artificial já afeta milhões de trabalhos nos EUA; entenda como.
A avaliação também registra divergências entre discursos públicos e ações práticas. O estudo aponta que a OpenAI mantém postura ativa contra legislações estaduais de segurança, apesar de defender a importância do tema em suas publicações.
Destaque da Anthropic
A Anthropic, considerada a organização com melhor desempenho, recebe elogios por apoiar iniciativas regulatórias, mas ainda carece de limites mensuráveis, supervisão independente e mecanismos claros de controle em cenários de superinteligência.
Os autores ressaltam que o avanço para a IAG já ocorre em ritmo acelerado. Empresas reorientam seus laboratórios, criam divisões dedicadas à superinteligência e divulgam previsões de chegada desses sistemas nos próximos anos.
A avaliação lembra que a área carece de padrões obrigatórios comparáveis aos adotados em setores como alimentos, aviação ou energia. Compromissos voluntários não acompanham o ritmo das capacidades dos modelos, ampliando riscos e incertezas.
Leia mais: IA e depressão: estudo revela como a inteligência artificial pode detectar sinais iniciais da doença.
Você pode se interessar também:
O estudo mostra a necessidade de salvaguardas concretas, supervisão externa, limites verificáveis e transparência técnica. Também orienta que desenvolvedores e usuários busquem entender os riscos associados às ferramentas que integram sua rotina profissional.
No balanço final, todas as empresas analisadas fracassam no indicador mais importante: controle da Inteligência Artificial superinteligente.