IA da Anthropic vai conseguir controlar (em parte) o seu computador

A mudança representa um pequeno passo em direção a um futuro em que as IAs não apenas geram conteúdo, mas controlam outros sistemas e dispositivos

Crédito: adventtr/ iStock

Mark Sullivan 3 minutos de leitura

A Anthropic está dando ao seu novo modelo de IA, o Claude 3.5 Sonnet,  a capacidade de controlar o computador de um usuário e acessar a internet. A medida representa uma etapa importante nos recursos dos modelos de IA generativa, mas levanta questões sobre a capacidade das empresas de IA de reduzir os riscos de uma IA mais autônoma.

De acordo com uma série de vídeos demonstrativos da Anthropic publicados na terça-feira no Twitter (atual X), os usuários do Claude agora podem pedir à IA que siga as etapas necessárias para criar um site pessoal.

Em outro exemplo, um usuário pede ao Claude que o ajude com a logística de uma viagem para assistir ao nascer do sol na ponte Golden Gate. O usuário descreve o que deseja que o modelo faça, dando-lhe instruções de texto.

As empresas de IA têm enfatizado o desejo de fazer com que os grandes modelos de linguagem ganhem mais “agência” e se tornem mais autônomos. Fazer isso significa ampliar a capacidade da IA de controlar não apenas suas próprias funções, mas também dispositivos externos. 

“Em vez de criar ferramentas específicas para ajudar o Claude a concluir tarefas individuais, estamos ensinando a ele habilidades gerais de computação, permitindo que ele use uma ampla gama de ferramentas padrão e programas de software projetados para os usuários humanos”, explicou a Anthropic em um comunicado no X.

Os novos recursos de controle do computador estão sendo disponibilizados para os desenvolvedores por meio de uma API, como uma versão beta pública. A Anthropic afirma que deseja coletar feedback sobre o desempenho e a utilidade dos novos recursos. 

A empresa reconheceu que a capacidade atual do Claude 3.5 Sonnet de usar computadores não é perfeita e que ele vai cometer alguns erros (especialmente quando se trata de rolagem e arrasto), mas a empresa espera que isso melhore rapidamente nos próximos meses.

Com mais poder, vem mais responsabilidade. A Anthropic tem algumas instruções explícitas sobre como reduzir o risco de dar a uma IA o controle sobre um computador. No guia do usuário, a empresa aconselha que se evite fornecer à tecnologia Claude acesso a dados confidenciais, como senhas de usuários, e a limitar o número de sites que ela pode acessar. 

O quarto ponto para minimizar riscos indica: “peça a um ser humano para confirmar decisões que possam resultar em consequências significativas no mundo real, bem como quaisquer tarefas que exijam consentimento afirmativo, como aceitar cookies, executar transações financeiras ou concordar com os termos de serviço.”

A IA autônoma pode proporcionar muita conveniência, mas também pode causar muitos danos.

A Anthropic deu um primeiro passo cauteloso rumo a uma IA mais autônoma. Mas a capacidade de gerenciar algumas tarefas básicas em um PC vai se expandir para tarefas cada vez maiores e para uma ampla gama de dispositivos, incluindo telefones e até eletrodomésticos.

À medida que esse controle se estende, a extensão do risco também aumenta. A inteligência artificial autônoma pode proporcionar muita conveniência, mas também pode causar muitos danos.

Espera-se que outras empresas de IA comecem a implementar funcionalidades semelhantes em um futuro próximo, como parte de um movimento geral em direção a uma inteligência artificial com mais agência.


SOBRE O AUTOR

Mark Sullivan é redator sênior da Fast Company e escreve sobre tecnologia emergente, política, inteligência artificial, grandes empres... saiba mais