Para Bill Gates, a superinteligência de IA exigirá algum grau de autoconsciência

Os sistemas atuais parecem “gênios”, mas precisam de estratégias para pensar sobre problemas, diz o cofundador da Microsoft

Crédito: Fast Company Brasil

Mark Sullivan 1 minutos de leitura

Relatar e escrever sobre IA me deu uma nova perspectiva sobre como o cérebro humano é incrivelmente surpreendente. Embora os grandes modelos de linguagem (LLMs, na sigla em inglês) sejam impressionantes, eles carecem de dimensões inteiras de pensamento que nós, humanos, consideramos naturais.

Bill Gates abordou essa ideia no podcast Next Big Idea Club. Conversando com o anfitrião Rufus Griscom, Gates falou longamente sobre “metacognição”, que se refere a um sistema que pode pensar sobre o próprio pensamento.

Gates definiu metacognição como a capacidade de “pensar sobre um problema de uma maneira ampla, dar um passo atrás e dizer: ok, quão importante é responder a isso? Como eu poderia verificar minha resposta, e quais ferramentas externas me ajudariam nessa tarefa?”.

O fundador da Microsoft disse que a “estratégia cognitiva” geral dos LLMs existentes, como GPT-4 ou Llama, ainda é pouco sofisticada. “Eles estão apenas gerando através da constante computação de cada token e sequência, e é impressionante que isso funcione”, disse Gates.

“O modelo não recua como um humano e pensa: 'vou escrever este artigo e aqui está o que eu quero cobrir; ok, vou colocar um texto aqui e aqui está o que eu quero fazer para o resumo'”.

Gates acredita que o método preferido dos pesquisadores de IA para melhorar os LLMs – ampliar o conjunto de dados de treinamento e o poder de computação – resultará em mais alguns grandes avanços e só. Depois disso, os pesquisadores terão que empregar estratégias de metacognição para ensinar os modelos de IA a pensar de forma mais inteligente, não mais intensa.

A pesquisa em metacognição pode ser a chave para resolver o problema mais irritante dos LLMs: a falta de confiabilidade e precisão, disse Gates. “Essa tecnologia... alcançará níveis sobre-humanos. Não chegamos lá ainda, se considerarmos a baixa confiabilidade”, disse ele.

“Grande parte do novo trabalho é adicionar um nível de metacognição que, se feito corretamente, resolverá a natureza um tanto errática do gênio.”


SOBRE O AUTOR

Mark Sullivan é redator sênior da Fast Company e escreve sobre tecnologia emergente, política, inteligência artificial, grandes empres... saiba mais