Copilot: dá para confiar em uma IA “para entretenimento”?
Um trecho dos Termos de Uso do Copilot chamou a atenção da internet por indicar que as pessoas usem a ferramenta "por sua conta e risco"

O assistente de IA Copilot, da Microsoft, está integrado a praticamente todo o ecossistema da empresa. Ele vem embutido no Windows 11e recursos recentes como Tasks e Pages são promovidos como ferramentas poderosas de produtividade.
Mas um trecho dos Termos de Uso do Copilot chamou a atenção da internet por parecer contradizer essa imagem de “divisor de águas” no ambiente de trabalho. No texto, a Microsoft alerta que “o Copilot é apenas para fins de entretenimento”.
“A ferramenta pode cometer erros e pode não funcionar como esperado”, continua a declaração na página oficial. “Não confie no Copilot para aconselhamento importante. Use o Copilot por sua conta e risco.”
A linguagem contrasta com a forma como o Copilot costuma ser apresentado ao público. Um anúncio de abril de 2025 destacava funções então em desenvolvimento, como concluir listas de tarefas automaticamente, realizar pesquisas aprofundadas sobre um tema e revisar documentos – usos que até podem ser divertidos de testar, mas que claramente têm aplicações práticas muito além do “entretenimento”.
Quando a página de Termos de Uso viralizou, as críticas nas redes sociais foram imediatas. O ambiente online nunca foi particularmente gentil com a Microsoft ou suas ferramentas de IA, que já chegaram a ser apelidadas de “Microslop” em uma tendência no início do ano.
Desta vez não foi diferente. Alguns usuários questionaram o que a cláusula de “uso apenas para entretenimento” significa para o futuro da IA como um todo.

“A possibilidade de a IA acabar não com um estrondo, mas com um ‘era só um brinquedo bobo, a gente jura’, depois que o departamento jurídico finalmente interveio”, ironizou um usuário. “Um brinquedo bobo pelo qual dezenas de milhares de funcionários perderam seus empregos”, respondeu outro.
Outros, porém, destacaram um ponto importante: uma linha adicional na mesma página esclarece que essas condições não se aplicam aos apps do Microsoft 365 Copilot (as versões voltadas especificamente para uso profissional), salvo indicação em contrário.
Os termos se referem ao aplicativo independente do Copilot e às versões baseadas em navegador, entre outras voltadas ao consumidor, e não a empresas. Ainda assim, com tantas variações sob o guarda-chuva Copilot, pode ser difícil para os usuários entender exatamente quais regras se aplicam à versão que utilizam.
ATENÇÃO ÀS LETRAS MIÚDAS
A Microsoft não é a única empresa a alertar usuários para não confiarem plenamente em produtos de IA.
A OpenAI, por exemplo, inclui em sua garantia que os clientes não devem tratar as respostas como “fonte única de verdade ou informação factual”, nem como substituto para aconselhamento profissional.
Já a Anthropic afirma que os usuários não devem confiar em resultados sem verificar sua precisão de forma independente.
essa condição não se aplica aos apps do Microsoft 365 Copilot, ou seja, as versões voltadas para uso profissional.
Ainda assim, a Microsoft é a única grande empresa a classificar sua própria ferramenta como “apenas para fins de entretenimento”, o que acaba enfraquecendo seu potencial de uso no ambiente corporativo.
Segundo a própria empresa, no entanto, essa formulação está desatualizada. Em comunicado à Fast Company, um porta-voz explicou: “a expressão ‘para fins de entretenimento’ é um resquício da época em que o Copilot foi lançado originalmente como um assistente de busca no Bing. À medida que o produto evoluiu, essa linguagem deixou de refletir como o Copilot é usado hoje e será atualizada na próxima revisão.”
Os Termos de Uso do Copilot foram atualizados pela última vez em 24 de outubro de 2025. Ainda não há previsão de quando a nova versão será publicada, nem qual será a redação que substituirá o trecho controverso.
Leia mais: A virada dos agentes de IA: o que mudou em 2025 e o que esperar de 2026
Enquanto isso, nas redes sociais, o episódio vem sendo interpretado como mais uma evidência de que a IA pode ter sido adotada de forma excessiva no ambiente de trabalho.
“A IA ‘não é para uso sério’ e serve ‘apenas para entretenimento’”, escreveu um usuário. “Então tirem a IA do nosso sistema de saúde, do serviço público e das forças armadas.”