5 perguntas para Camila Leporace, autora de Algoritmosfera

Camila Leporace analisa os impactos da IA sobre os processos cognitivos humanos e levanta questionamentos sobre como aprendemos.

5 perguntas com Camila Leporace, autora de Algoritmosfera – A cognição humana e a inteligência artificial
Crédito: Fast Company Brasil

Camila de Lira 11 minutos de leitura

Ferramentas de IA já são usadas para escrever textos, dar conselhos, ouvir desabafos e até oferecer “bênçãos”, como mostram os memes que viralizam com pessoas pedindo respostas existenciais a sistemas como o ChatGPT. No centro dessa nova relação emocional com as máquinas, surgem perguntas urgentes: o que estamos projetando nessas tecnologias? O que isso diz sobre nossa cognição, nossas carências e nossos afetos?

Essas são justamente as questões que movem a pesquisadora Camila Leporace, autora do livro Algoritmosfera – A cognição humana e a inteligência artificial (PUC-Rio/Hucitec, 2024). Camila, que se apresentou na Festa Literária Internacional de Paraty (FLIP) deste ano,  estuda o assunto há mais de oito anos.

Ela é pesquisadora no Observatório da IA na Educação Básica da Universidade de Columbia no Brasil. Seu olhar parte da perspectiva da cognição enativa, que entende a mente como algo indissociável do corpo, das emoções e do ambiente. Ela analisa os impactos da IA sobre os processos cognitivos humanos e defende que, mais do que regular tecnologias, é preciso valorizar o que nos torna humanos.

Nesta entrevista, a autora fala sobre os riscos de terceirizar a criatividade, os limites da chamada inteligência artificial e os caminhos possíveis para preservar a autonomia cognitiva em tempos de automação.

FC Brasil -  Um estudo recente do MIT apontou que o uso do ChatGPT para tarefas criativas pode levar a uma redução nas capacidades cognitivas ao longo do tempo. Que tipo de perda estamos enfrentando e como isso afeta o ambiente escolar, em especial?

Camila Leporace - O tipo de perda que estamos enfrentando  e não apenas as perdas, mas os possíveis ganhos cognitivos, por assim dizer, que a IA generativa pode trazer, também ainda estão sendo compreendidos, e carecem de pesquisa e observação, até porque há perspectivas diferentes acerca do que é a mente humana, e como a cognição funciona.

Utilizar menos o cérebro numa determinada tarefa específica ou num conjunto de tarefas não seria traduzido como “perda cognitiva” de forma unânime por cientistas da cognição. O pesquisador Andy Clark, por exemplo, defende que a mente inclui as tecnologias e vai, cada vez mais, englobar os modelos de IA generativa, que passarão a trabalhar como agentes individuais, complementando a cognição e aumentando as potencialidades cognitivas. 

Gosto dessa visão do Clark, cujo trabalho acompanho há tempos, mas cabe ressaltar que, quando se trata da aprendizagem de leitura e escrita, em particular, não dá para apressar conclusões nesse sentido. Porque, se no momento de aprender a ler e escrever, delega-se essa aprendizagem para usar uma máquina para gerar textos, que muitas vezes nem são lidos depois, perde-se a oportunidade não apenas de praticar a escrita, mas a capacidade de pensar: nós pensamos enquanto escrevemos.

Não somos como impressoras, imprimindo ideias que estão prontas em nossas cabeças; ao escrevermos é que elaboramos as nossas ideias, conectamos essas ideias, buscamos coisas na memória, somos impactados pelo que estamos vivendo no momento, no ambiente em que estamos; influencia a maneira como estamos nos sentindo, se estamos ansiosos, se estamos nervosos, enfim, escrever é um processo cheio de complexidade, idas e vindas e emoções envolvidas. E é um processo bem diferente do processo da IA de gerar textos.

FC Brasil - O neurocientista Miguel Nicolelis afirmou recentemente que o termo “inteligência artificial” é equivocado, já que as máquinas não têm cognição autônoma nem consciência, e que a inteligência seria uma propriedade exclusiva da matéria orgânica. Como você vê essa afirmação à luz da sua pesquisa sobre cognição? 

Camila Leporace - Pesquisas no campo do enativismo, ou cognição enativa, indicam que a cognição emerge da atividade corporal de um organismo vivo. Isto é, vão numa direção muito parecida com aquela que o Nicolelis traz. Na medida em que esse organismo age no mundo, essa ação dele junto ao meio em que vive vai lhe possibilitando que dê sentido a esse espaço que ele habita, e esse processo de fazer sentido se traduz no processo de aprender, é a base da cognição. Essa perspectiva para a cognição nos difere de máquinas que recebem e processam informações, devolvendo “outputs”. 

Os nossos processos de de fazer sentido vão muito além de processar informações

Os nossos processos de de fazer sentido vão muito além de processar informações, incluindo as nossas emoções; as relações que mantemos com outros indivíduos – a partir das quais é possível surgirem sentidos coletivos para diversas coisas; as nossas intuições. Essa perspectiva de que a cognição emerge do fato de estarmos vivos e de fazermos parte da natureza nos diferencia de máquinas, e indica que elas não podem ter cognição como nós temos.

Os animais, mesmo os seres vivos mais simples, por outro lado, também fazem sentido do mundo que habitam, isto é, constroem sentidos a partir de sua atividade no mundo, então é como se vivêssemos em um mesmo espaço mas que representa um universo diferente para cada ser vivo que nele habita. As coisas têm sentidos diferentes para seres diferentes, para sobrevivência deles e para o propósito que cumprem na natureza.

Por mais que uma IA possa fazer parte de processos cognitivos humanos, contribuir com eles ou afetá-los de maneiras diversas, dizer que ela é um agente cognitivo autônomo seria fugir de uma premissa enativista de que a mente surge quando há vida. A IA não é capaz de sentir, viver experiências, construir sentidos e nem perceber nada de fato. E esses são atributos importantes dos seres vivos.

FC Brasil - Em uma fala recente, Mark Zuckerberg sugeriu que ferramentas de IA poderão, em breve, “pensar por nós”. Mesmo que a IA não tenha cognição própria, como aponta Nicolelis, ainda assim ela já interfere no nosso processo de pensamento. Quais são os riscos de terceirizar decisões e criatividade para esses sistemas? O que essa tendência revela sobre o momento atual da cognição humana?

Camila Leporace - Creio que vale pararmos para pensar no que é que ganhamos com as máquinas “pensando por nós” ou “criando por nós”. É isso que queremos desses sistemas artificiais? Por que terceirizar o pensamento, que é um dos atributos que nos fazem, justamente, ser quem somos? Apesar de essa afirmação do Zuckerberg ser frívola, se ele não define o que chama de “pensar”, eu posso contribuir para essa reflexão dizendo que ganhamos muito pensando sobre o que é pensar. No início da formação da ciência cognitiva como área de pesquisa, a mente costumava ser considerada um programa de computador, um “software”, rodando no cérebro, que seria como um “hardware”.

Mas a metáfora computacional da mente vem sendo desafiada. Poderíamos então perguntar: qual o problema de considerar a mente como um programa de computador? E tem um filósofo da cognição, Alva Noë, que diz que computadores não podem pensar, nem ver, nem jogar xadrez nem nada de fato, e que o cérebro também não pode pensar.

Mas como é que o cérebro não pensa? Bem, se você considerar que pensar vai além de estabelecer conexões neurais dentro do cérebro, já que pensar inclui viver com todo o corpo, sentir, transformar-se na medida em que vive, intuir, deixar-se afetar pelo mundo e pelo outro, não é o cérebro que pensa, mas o ser humano (ou o ser vivo) como um todo, como um organismo complexo.

Nesse organismo, o cérebro cumpre um papel essencial, claro, sem ele nada disso aconteceria, mas o cérebro, para ser o que ele é, precisa estar nesse complexo orgânico, sensoriomotor e intersubjetivo para que o ser efetivamente “pense”. Aliás, todo esse complexo de cérebro e corpo precisa estar inserido em algo ainda maior, o meio em que vivemos, para que efetivamente pensemos.

Não existe pensar de forma isolada, o pensamento emerge dessas interações complexas entre o cérebro e o corpo, o ser e o mundo, os seres e outros seres. Enquanto isso, sistemas artificiais como as IAs generativas têm por trás as redes neurais artificiais, que são inspiradas nas redes neurais biológicas cerebrais. E partem da premissa de que, as reproduzindo, se pode reproduzir o cérebro humano e, assim, a mente humana. Só que isso não vale se a mente humana é muito mais que o cérebro.

FC Brasil - Há memes circulando com pessoas pedindo "bênçãos" para a IA, como se ela fosse uma entidade espiritual. O que esse tipo de linguagem e afeto direcionado à tecnologia revela sobre nossas emoções e carências cognitivas nesse momento de transição?

Camila Leporace - Existem especialistas indicando, há bastante tempo, que estamos hiperconectados, mas estamos sós, porque as reais conexões estão se perdendo. Uma dessas especialistas é a Sherry Turkle, que tem um TED chamado “Conectado, mas só” e um livro chamado “Alone together”. Também sabemos que as redes sociais mudaram muito desde quando as começamos a usar, antes elas nos mantinham ligados a amigos e hoje são essencialmente plataformas comerciais em que anunciantes brigam pela nossa atenção. Com tanta briga por atenção, a tendência é a de perdemos a atenção a nós mesmos, bombardeados com tanto conteúdo em tão pouco tempo. Não consigo deixar de relacionar essa desconexão, num mundo de hiperconectividade, ou na algoritmosfera – termo que criei para denominar o ambiente algorítmico em que estamos todos inseridos e que é o título do meu livro – com o uso de chatbots “comuns” (isto é, não feitos para esse fim, pois existem pesquisas com chatbots específicos para terapia, experiências monitoradas e com especialistas, o que é diferente) como terapeutas, conselheiros, enfim.

Nesse sentido, é essencial que as pessoas obtenham informações e compreendam o que é IA generativa, como funcionam esses chatbots e quais as suas limitações. O letramento digital, o letramento em IA contribui para que a sociedade aprenda sobre a IA de uma forma que possa, ao menos, fazer escolhas conscientes sobre como vai lidar com esses sistemas. As pessoas também devem avaliar sua própria relação com as tecnologias, e procurar entender que elas não são neutras, para que possam, assim, demandar tecnologias melhores para a sociedade.

Complementarmente a isso, vale lembrar que somos seres sociais, o que significa que precisamos das conexões com os outros para viver bem, na verdade precisamos delas para para existir e, quando não conseguimos nos conectar verdadeiramente com o outro, acaba nos faltando uma parte importante cognitiva e afetivamente (a cognição não pode ser dissociada da afetividade e das emoções). As supostas conexões com a IA não substituem as relações humanas ou com outros seres vivos; na verdade, as relações entre seres vivos são relações, são interações intersubjetivas de fato, enquanto interagir com um computador, um sistema deixa de lado diversas dimensões de uma interação social.

FC Brasil -  Como podemos preparar nossa sociedade  e especialmente as novas gerações para conviver com sistemas de IA sem perder a autonomia cognitiva? Que perguntas deveríamos estar nos fazendo agora, antes que seja tarde?

Camila Leporace -  Essa que você fez é uma delas, penso eu. Autonomia é um conceito importantíssimo; em vez de nos perguntarmos como vamos lidar com a IA, que tal pensarmos no que a IA pode fazer por nós - nos ajudando a ter mais autonomia, mais criatividade? Que tal pensarmos o que queremos das tecnologias, e não somente ver do que elas são capazes? Muitas vezes olhamos para as incríveis capacidades técnicas de uma tecnologia, e nos impressionamos, mas por que parece que paramos de nos impressionar com o que nós temos de interessante, de especial, e que não é maquínico? 

Também acredito que devemos nos acostumar simplesmente a fazer mais perguntas, em vez de viver em busca de respostas, pois fazer perguntas é uma capacidade humana muito bela e que nos leva a descobertas fascinantes. É importante saber conviver com as perguntas, e até saber usar a IA para elaborar perguntas, não somente para nos dar “respostas”.

E também considero essencial nos mantermos conscientes de que a busca por relações melhores com as tecnologias passa por uma busca por uma relação melhor com o ambiente que habitamos, seja ele qual for. Ter autonomia significa viver em equilíbrio com o ambiente em torno de nós, qualquer ambiente. O planeta é o primeiro deles, e a nossa relação com o planeta está desequilibrada. É difícil termos qualquer relação equilibrada com qualquer ambiente antes de equilibrar essa, e aliás sabemos que a IA pode ajudar a endereçar questões ambientais mas também gera problemas ambientais – já que sua materialidade se traduz no consumo de água, energia e no trabalho humano sem o qual esses sistemas não são criados, treinados, melhorados etc. A principal pergunta eu acho que é essa, como manter a nossa autonomia na algoritmosfera, um ambiente que nós ajudamos a construir na medida em que fornecemos dados para os sistemas artificiais, e como a algoritmosfera pode ser um ambiente em que possamos prosperar, com tecnologias de IA que contribuam para reduzir em vez de aumentar desigualdades; trazer oportunidades estéticas novas e valorizar a criatividade, em vez de reduzir as experiências que temos e a nossa perspectiva de mundo; apoiar a democracia e a ciência; nos colocar de volta num lugar de união com a natureza, à qual pertencemos, apesar de muitas vezes parecer que nos esquecemos disso.


SOBRE A AUTORA

Camila de Lira é jornalista formada pela ECA-USP, early adopter de tecnologias (e curiosa nata) e especializada em storytelling para n... saiba mais