Estamos deixando de ser usuários para virar matéria-prima das IAs
Empresas de tecnologia estão deixando de projetar para pessoas e passando a priorizar algoritmos

Estamos entrando em uma era da computação cada vez menos centrada no ser humano. Paradoxalmente, as big techs seguem obcecadas em explorar cada detalhe dos nossos dados pessoais.
As interfaces simples e específicas para tarefas, que faziam parte do nosso dia a dia digital, estão sendo deixadas de lado, substituídas por IA generativa e grandes modelos de linguagem (LLMs, na sigla em inglês), que estão mudando a forma como interagimos com softwares.
Em vez de abrir um aplicativo para escrita, pesquisa, codificação ou até mesmo suporte emocional, somos direcionados para uma única janela de chatbot. Por exemplo, a OpenAI oferece: "Deixe a IA fazer o trabalho por você – projetada para lidar com qualquer tarefa".
A Anthropic, por sua vez, promove o Claude como um mecanismo de realização de fantasias com o slogan "Se você pode sonhar, o Claude te ajudar a realizar". O argumento é claro: essas ferramentas são promovidas como uma solução para todos os problemas.
Os mecanismos de busca nos acostumaram a esperar respostas a partir de um único campo de texto. Agora, os chatbots deram um passo além: a caixa de diálogo engoliu praticamente todos os aplicativos – embora suas respostas muitas vezes exijam refinamento infinito e checagem constante.
E o texto é só o começo. As empresas de tecnologia estão preparando um futuro no qual a fala substitui a digitação e a interface praticamente desaparece. O verdadeiro objetivo não é tornar nossa vida mais fácil, mas capturar e explorar o que dizemos – e como dizemos – em benefício próprio.
Essa mudança representa uma ruptura em relação aos últimos 45 anos de design de interfaces. A Apple, inspirada pelo Xerox PARC, consagrou o design centrado no usuário: ícones gráficos, editores e metáforas intuitivas que davam às pessoas autonomia para criar e se comunicar.
QUANTITATIVO x QUALITATIVO
Por décadas, isso tornou a computação acessível. Mas com o avanço do big data, as prioridades mudaram. Passamos a gerar imensos rastros digitais (e-mails, fotos, documentos, históricos de navegação) e fomos convencidos a guardá-los em “nuvens” para facilitar o acesso.
A ascensão de modelos de negócios baseados em vigilância levou as empresas a formas cada vez mais quantitativas de "criação de perfil de usuário". Logo, as empresas perceberam que, juntas, essas informações formavam um gigantesco acervo global de conhecimento – pronto para ser explorado e transformado em lucro.
O foco deixou de ser criar ferramentas para ajudar as pessoas e passou a ser extrair padrões que servissem aos objetivos corporativos. Deixamos de ser vistos como usuários com necessidades e passamos a ser tratados como matéria-prima para métricas, modelos e mercado.

Com o big data alimentando as IAs e os LLMs, esse processo só se acelerou. Hoje, esses sistemas operam em cima do que fazemos, mas sem entender por que fazemos.
Sem o contexto revelado por pesquisas qualitativas, a análise puramente quantitativa frequentemente interpreta mal nossas intenções. Os chatbots geram respostas inconsistentes, que variam conforme o prompt, e cabe a nós ficar ajustando as perguntas até obter algo útil.
Essa coleta massiva também consome nosso tempo de outra forma: as pesquisas intermináveis. As empresas nos transformaram em “treinadores” de algoritmos, enviando questionários após cada interação para medir o desempenho de agentes, serviços e produtos que já monitoram. É exaustivo.
ESCALANDO ÀS NOSSAS CUSTAS
As big techs justificam essa abordagem como uma forma de “escalar” interfaces (para elas mesmas). Mas escalar, muitas vezes, significa nivelar por baixo, ignorando as diferenças culturais de um mundo diverso.
Os chatbots “tudo em um” prometem universalidade, mas trazem novos problemas: erros de tradução em modelos treinados em idiomas diferentes, “alucinações” causadas por dados incompletos e ciclos intermináveis de refinamento de prompts. Em vez de simplificar, esses sistemas acabam exigindo mais esforço dos usuários.
Hoje, os sistemas de IA operam em cima do que fazemos, mas sem entender por que fazemos.
Esse processo é recursivo: fazemos perguntas aos chatbots, eles repassam essas questões para LLMs, que associam palavras para gerar respostas. Essas respostas voltam a circular em mecanismos de busca, agora também cheios de conteúdo de LLMs (o que torna a verificação ainda mais difícil). Enquanto isso, nossas conversas com chatbots viram material para treinar novos modelos.
As interfaces de usuário se tornaram menos como ferramentas e mais como canal de coleta de dados. Onde antes se usava uma ferramenta para realizar um trabalho, agora treinamos ferramentas para fazê-lo, para que possamos, por nossa vez, concluir o nosso. Essa dinâmica explora nossa energia e trabalho, sustentando sistemas que um dia podem nos substituir (se ainda não o fizeram).

A tendência atual é apagar por completo a interface e substituí-la por diálogos monitorados – uma escuta mecanizada disfarçada de conversa. Por trás, algoritmos vasculham fragmentos de dados (nem sempre precisos, nem sempre completos) para gerar músicas, códigos, imagens e conselhos baseados no acervo da humanidade.
Às vezes, essas respostas chegam a áreas críticas, como aconselhamento psicológico ou até operações nucleares, criando riscos reais para todos nós. Em larga escala, isso é alarmante.
Não dá para dizer que o design centrado no usuário desapareceu. Ele ainda existe, mas o “usuário” mudou. Antes, éramos nós. Agora, são os modelos de linguagem que estão no centro. E, gostemos ou não, nosso papel passou a ser apenas garantir o sucesso deles.