Especialistas assinam carta aberta para frear a superinteligência artificial; entenda motivo

Documento internacional reacende o debate sobre segurança e regulação no avanço da inteligência artificial

Superinteligência artificial
Mais de 700 especialistas pedem pausa no avanço da superinteligência artificial. Crédito: Imagem gerada com auxílio de IA via Copilot

Gabriel Nassif 2 minutos de leitura

Especialistas, cientistas e personalidades públicas internacionais assinaram uma carta aberta (leia aqui) pedindo a suspensão imediata do desenvolvimento de sistemas de superinteligência artificial. Para eles, a tecnologia é capaz de ultrapassar as capacidades cognitivas humanas.

A iniciativa foi divulgada pelo Future of Life Institute, uma organização sem fins lucrativos com sede nos Estados Unidos que pesquisa os impactos éticos e sociais da Inteligência Artificial (IA).

O documento, intitulado "Pause Giant AI Experiments", argumenta que o avanço acelerado dessas tecnologias representa riscos à humanidade. O grupo pede que o desenvolvimento da chamada “superinteligência” seja interrompido até que exista um consenso científico sobre como tornar ela segura e controlável.

O grupo também defende que os avanços dessa tecnologia ocorram apenas com respaldo público e regulamentação internacional adequada.

Leia mais: X da questão: empresas estão treinando seus modelos de IA com os dados errados

Cientistas, empresários e líderes entre os signatários

Entre os signatários estão o ganhador do Nobel de Física de 2024, Geoffrey Hinton, considerado um dos “pais da inteligência artificial moderna”, Yoshua Bengio, professor da Universidade de Montreal, e Stuart Russell, pesquisador da Universidade da Califórnia, em Berkeley.

O texto também recebeu apoio de nomes fora do meio científico, como Richard Branson, fundador do grupo Virgin; Steve Wozniak, cofundador da Apple; e Paolo Benanti, assessor do papa Francisco e especialista em ética da tecnologia no Vaticano.

O avanço da superinteligência

O documento alerta que grandes empresas de tecnologia, como OpenAI, Google DeepMind e Anthropic, estão desenvolvendo sistemas capazes de atingir a Inteligência Artificial Geral (IAG), etapa em que as máquinas se igualaram às capacidades cognitivas humanas.

O passo seguinte seria a superinteligência, um nível em que sistemas autônomos poderiam ultrapassar a inteligência e o controle humanos.

Segundo reportagem do jornal francês, Le Monde, o presidente do Future of Life Institute, Max Tegmark, afirmou à Agence France-Presse (AFP) que construir algo dessa magnitude sem um marco regulatório global é inaceitável.

Tegmark destacou também que o objetivo não é interromper o desenvolvimento de sistemas úteis de IA, como aqueles voltados à cura de doenças, mas frear projetos que avancem sem controle ou transparência.

Esse vídeo pode te interessar:

Debate global sobre regulação

O pedido reforça discussões internacionais sobre o uso ético e responsável da inteligência artificial. Desde 2023, países da União Europeia, Reino Unido e Estados Unidos têm proposto leis para garantir transparência nos algoritmos, proteção de dados e salvaguardas éticas no avanço da tecnologia.

A carta do Future of Life Institute ressalta que a corrida pela superinteligência artificial não pode ocorrer às custas da segurança coletiva e da estabilidade global.

Leia mais: Dois avanços que passaram despercebidos, mas podem mudar o jogo da IA


SOBRE O AUTOR

Jornalista, com experiência em produção de matérias e conteúdos multiplataforma. Atuou em veículos independentes e comunitários, além ... saiba mais