Seria a IA generativa capaz de desenvolver inteligência emocional?

É possível que os chatbots de IA alcancem uma “intuição” e “autonomia” semelhantes às humanas, afirmam os pesquisadores

Créditos: Marharyta Marko/ piranka/ sompong_tom/ iStock

Mark Sullivan 3 minutos de leitura

Embora o mundo da tecnologia ainda esteja trabalhando nas primeiras etapas da IA generativa – treinando grandes modelos de linguagem (LLMs, na sigla em inglês) para compreender, por exemplo, quando um prompt enviado pelo usuário exige uma resposta factual ou criativa –, os pesquisadores já estão pensando nas próximas fronteiras das habilidades de comunicação que esperam incorporar nos LLMs.

Comparados aos humanos, os grandes modelos de linguagem ainda não possuem habilidades cognitivas e comunicativas complexas. Somos dotados de intuição, ou seja, levamos em conta fatores além dos fatos óbvios de um determinado problema ou situação.

Podemos entender as nuances nas mensagens verbais ou escritas que recebemos. Somos capazes de insinuar coisas sem precisar dizê-las explicitamente e entender quando outros estão fazendo o mesmo.

Crédito: Istock

Os pesquisadores estão trabalhando em formas de incorporar essas habilidades nos LLMs. Além disso, esperam conseguir dar às IAs uma compreensão mais profunda da camada emocional que influencia como nós, humanos, nos comunicamos e interpretamos mensagens.

As empresas de inteligência artificial também estão estudando como tornar os chatbots mais “autônomos” – em outras palavras, mais aptos a realizar por conta própria um conjunto de ações para atingir um objetivo maior. Por exemplo, um bot poderia planejar todos os detalhes de uma viagem ou conduzir uma estratégia complexa de negociação de ações.

Comparados aos humanos, os grandes modelos de linguagem não possuem habilidades cognitivas e comunicativas complexas.

Mas isso traz à tona questões de segurança óbvias: e se os chatbots começarem a tentar alcançar um objetivo sem entender claramente o teor e a intenção dos comandos humanos? Será possível treiná-los para intuir que não compreenderam adequadamente as verdadeiras intenções dos usuários?

E, o mais importante, as empresas de IA não deveriam garantir que os chatbots tenham as habilidades necessárias para entender plenamente os detalhes de qualquer comandos antes de treiná-los para agir de forma autônoma?

MAIS UMA DERROTA PARA A ARTE GERADA POR IA

O sistema judiciário dos Estados Unidos está começando a criar jurisprudência em relação à arte gerada por IA, e isso parece ser uma má notícia para os artistas que preferem usar o Stable Diffusion em vez de pincéis.

Em 2018, quando o artista Stephan Thalen tentou obter os direitos autorais de uma imagem gerada por uma ferramenta de IA que ele mesmo criou, o Escritório de Direitos Autorais dos EUA (USCO, na sigla em inglês) recusou o pedido, alegando que a obra “não era de autoria humana”.

O sistema judiciário dos EUA está começando a criar jurisprudência em relação à arte gerada por IA.

Recentemente, um tribunal federal manteve a negativa, afirmando que a autoria humana “é parte essencial de uma reivindicação válida de direitos autorais”.

No ano passado, os artistas que utilizam inteligência artificial pareciam ter conquistado uma vitória quando Kris Kashtanova obteve os direitos autorais de uma história em quadrinhos que continha imagens geradas pelo Midjourney.

Kashtanova afirmou que havia entrado com o pedido com o objetivo de estabelecer um precedente para obras de IA. No entanto, posteriormente, o USCO revogou os direitos sobre as imagens geradas, mantendo apenas o texto e o layout protegidos.

Essas duas rejeições, respaldadas pela decisão do tribunal federal, poderão servir de base para uma nova doutrina jurídica que será citada como precedente nos muitos casos envolvendo a propriedade da arte gerada por IA que certamente surgirão.


SOBRE O AUTOR

Mark Sullivan é redator sênior da Fast Company e escreve sobre tecnologia emergente, política, inteligência artificial, grandes empres... saiba mais