5 perguntas para Catharina Doria, fundadora do The AI Survival Club

Especialista em ética na inteligência artificial fala sobre letramento em IA e os desafios que o Brasil tem para 2026

Catharina Doria, fundadora do The AI Survival Club
Crédito: Divulgação

Redação Fast Company Brasil 7 minutos de leitura

As redes sociais estão inundadas de imagens e vídeos feitos com inteligência artificial. De deepfakes a slop, passando pelas trends do momento. No lugar de apenas testar ferramentas ou mostrar as “maravilhas” da tecnologia está a especialista em ética em IA Catharina Doria.

Ela é fundadora do The AI Survival Club, comunidade de discussão sobre a tecnologia e letramento crítico em inteligência artificial. Com vídeos em inglês, legendados em português, Catharina fala sobre privacidade de dados, segurança e o lado B da IA.

O conteúdo mais recente produzido por ela sobre o Grok teve cerca de um milhão de visualizações no TikTok e viralizou no Instagram. Aos 27 anos, Catharina já tem uma longa história com a tecnologia. Aos 16, criou o aplicativo Sai pra Lá, que monitora assédio sexual nas ruas. 

Nesta entrevista à Fast Company Brasil ela fala sobre letramento em IA e os desafios que o Brasil tem para 2026. Confira:

FC Brasil – Como sobreviver à IA em 2026?

Catharina Doria Para mim, é muito claro que para sobreviver à IA em 2026 é necessário um letramento crítico de inteligência artificial. As pessoas usam o ChatGPT e outras duas ferramentas de IA e acreditam que já estão “letrados” em IA. Mas isso não é um letramento crítico. 

Letramento crítico é conseguir olhar para as ferramentas, para as empresas, para os CEOs e para as notícias com senso crítico. É entender como essas tecnologias realmente beneficiam a gente, ou não. Existe muito marketing e muita propaganda em torno da IA. Ser crítico é o que protege contra notícias falsas e contra propaganda de ferramentas. 

Quando dizem que a IA aumenta produtividade ou que quem não usa vai ficar para trás, quem trabalha com ética em IA diz exatamente o oposto. Quem tende a se beneficiar são as pessoas que continuam usando o cognitivo delas para pensar, ler, escrever, manter o pensamento crítico afiado. Usar a IA como muleta pode prejudicar o próprio raciocínio.

FC Brasil Estamos em ano eleitoral no Brasil. Os riscos com deepfakes vão ficar ainda mais sérios. De que forma podemos ampliar o letramento em IA sem causar alarmismo?

Catharina Doria   Sempre recebo comentários dizendo que estou assustando as pessoas. A pergunta que faço é: eu estou assustando ou a realidade é assustadora?

logotipo The AI Survival Club

Existe, sim, um componente assustador. Não dá para suavizar a IA e dizer que está tudo bem, especial- mente em ano eleitoral. A IA pode criar vídeos, áudios e textos falsos, colocar palavras na boca de políticos e inventar eventos que nunca aconteceram.

Isso pode influenciar decisões políticas reais. Pessoas podem votar com base em fake news geradas por IA. Então é um assunto sério e não dá para tratar como algo leviano. Não é para a gente ficar tranquilo, é para tratar com a seriedade que precisa. 

Quando falamos em alarmismo, muitas vezes pensamos em exagero. Mas, nesse caso, é preciso fazer barulho. É preciso mostrar que isso pode afetar diretamente as eleições.

FC Brasil Pesquisa da TalkInc mostra que houve aumento de uso de IA generativa no Brasil.Ao mesmo tempo, caiu a percepção de risco sobre as plataformas. Além disso, não param surgir novos serviços e usos “convenientes” e “despretensiosos" de IA. Como aproximamos o público geral da conversa sobre uso responsável de IA? 

Catharina Doria Isso me preocupa muito. A gente vê mais pessoas usando IA generativa e, ao mesmo tempo, menos percepção de risco. Grande parte do conteúdo sobre IA empurra a adoção em massa, sem crítica. São propagandas de ferramentas. 

Catharina Doria, fundadora do The AI Survival Club

A aproximação com o público passa por tornar essa conversa mais acessível e mais convidativa. Isso inclui usar referências de cultura pop, exemplos do cotidiano e uma linguagem que não seja técnica demais. Nas minhas redes, vejo que a confusão é generalizada: pessoas de 15 a 90 anos estão igualmente perdidas.

Quando eu trabalhava na indústria, falávamos de termos extremamente complexos e de tecnologias que nem estavam no mercado. Ao mesmo tempo, as pessoas comuns mal conseguiam identificar um vídeo falso online. Esse abismo me assustou muito.

A indústria de IA responsável e governança avançou, mas a população ficou para trás. Aproximar o público significa traduzir esses conceitos, explicar por que ética, responsabilidade e pensamento crítico importam, sem elitizar o discurso. Para mim, esse é o verdadeiro diferencial.

FC Brasil – Aos 16 anos, você criou o app Sai Pra Lá, que mapeava assédio nas ruas. Hoje vemos ferramentas de IA sendo usadas para assediar mulheres. Como nos proteger?

Catharina Doria Estou há 11 anos trabalhando com tecnologias responsáveis, pensando em como elas podem ser usadas para o bem. E, mais de uma década depois, a gente se vê novamente diante de um cenário em que o uso da tecnologia ainda não é responsável e continua sendo extremamente prejudicial para determinados grupos, especialmente mulheres. 

Sobre como nos proteger, vou soar repetitiva, mas a resposta continua sendo o letramento crítico em IA. Hoje, as pessoas adotam essas ferramentas sem entender o que está acontecendo. E a gente não pode agir assim. É preciso compreender o que são essas tecnologias, como estão sendo usadas e quais impactos podem ter na nossa vida.

No caso do Grok, por exemplo, vejo gente dizendo: “então mulheres deveriam parar de postar fotos”. Não é isso. Mulheres têm o direito de postar fotos online sem que essas imagens sejam usadas para gerar conteúdos sexualizados.

Grok, inteligência artificial da empresa xAI

Existem aplicativos que removem roupas de mulheres, inclusive de crianças, e isso é crime. Não é uma questão de comportamento individual, mas de violação de direitos.

A responsabilidade pelo que acontece não é das mulheres. Ela recai sobre as empresas, que não podem criar ferramentas que sexualizam corpos, retiram roupas ou produzem esse tipo de violência. Mulheres precisam entender seus direitos para poder reivindicá-los coletivamente.

O que vimos com o caso do Grok mostra isso. Milhares de mulheres se mobilizaram, denunciaram o problema e pressionaram por mudanças. Elas estão acontecendo lentamente, mas estão acontecendo.

Pensamento crítico também é essencial quando falamos de outros usos da IA, como terapia. Muitas pessoas estão compartilhando dados extremamente sensíveis com ferramentas que não têm compromisso com saúde mental.

Leia mais: A IA está mesmo nos deixando mais burros? Depende de como ela é usada

Essas empresas não estão ali para cuidar das pessoas – estão ali para lucrar. Quanto mais tempo você passa na plataforma, mais dinheiro elas ganham, seja com mensalidades, seja com os dados que você fornece.

A proteção passa por entender o que é aceitável, o que é ilegal, quais são os nossos direitos e quais são os reais interesses por trás dessas ferramentas. É só assim que mulheres, e pessoas em geral, conseguem se proteger nesse cenário.

FC Brasil Você está em sempre em contato com o público. Quais perguntas sobre IA mais recebe? Quais te surpreendem?

Catharina Doria Falo com o público o tempo todo. São mais de meio milhão de seguidores e cerca de 20 milhões de visualizações por mês. Meu conteúdo é em inglês, então falo com pessoas do Brasil, dos Estados Unidos e da Europa. 

As perguntas mais comuns não são apenas sobre “o que é IA” ou “como funciona”, mas sobre notícias específicas. As pessoas me perguntam o que eu acho de eventos recentes envolvendo o uso de IA, como imagens manipuladas, vídeos falsos ou decisões políticas influenciadas por tecnologia.

Existe muito marketing em torno da IA. Ser crítico é o que protege contra notícias falsas e propaganda de ferramentas.

As pessoas procuram minha opinião porque entendem que o olhar crítico sobre IA é necessário. Quando surgem casos grandes, como o do Grok, meu inbox enche de perguntas: o que é, como funciona, quais são os riscos e o que pode ser feito.

Mas a pergunta que mais me assusta é outra. Todos os dias, recebo centenas de mensagens perguntando “como faço para deletar meus dados?”. Pessoas que passaram anos usando ferramentas como o ChatGPT, compartilhando segredos e dados sensíveis, só agora percebem os riscos.

Infelizmente, muitas vezes preciso dizer que não há como voltar atrás. Uma vez que o dado existe e foi compartilhado, é muito difícil apagá-lo. Ao aceitar termos de uso, as pessoas muitas vezes autorizam a transferência e o controle desses dados por outras empresas.


SOBRE O(A) AUTOR(A)

Conteúdo produzido pela Redação da Fast Company Brasil. saiba mais