Ética não aceita atalho: os riscos da aplicação da IA pelo critério único da produtividade

O uso da inteligência artificial no ambiente de trabalho tem o potencial de ampliar as potencialidades humanas ou de destruí-las

Crédito: Gerd Altmann/ Pixabay

Clara Cecchini e Samir Lótfi 7 minutos de leitura

Se você acompanha as conversas sobre tecnologia e sociedade, certamente em algum momento se deparou com as discussões éticas que perpassam o tema.

Essas questões não são poucas e nem triviais, e quando recortamos o foco para o mundo do trabalho, emergem preocupações de toda a natureza, desde as relações de poder entre empregados e empregadores até o significado do trabalho em si. 

Essa complexidade nos acompanha ao longo da história. Mas agora, com a disseminação da inteligência artificial, entramos em um campo totalmente novo, com uma mudança paradigmática que abre um universo de potencialidades e também de riscos.

Yuval Harari, logo no prólogo do seu novo livro Nexus, chama atenção para o fato de que a IA deveria ser de interesse de todos os seres humanos, mesmo aqueles que não se tornarão especialistas no assunto.

“Todas as invenções humanas anteriores deram poder aos seres humanos porque, por mais poderosa que fosse a nova ferramenta, as decisões sobre seu uso permaneceram em nossas mãos. Facas e bombas não decidem quem vão matar. (...) A IA, por sua vez, pode processar sozinha a informação e, portanto, substituir os seres humanos em tomadas de decisão. A IA não é uma ferramenta – é um agente” (destaque nosso).

Sabendo disso, alguns de nós começamos a discutir as implicações éticas de uma tecnologia que decide. O famoso dilema ético do bonde (Trolley Problem), em que a decisão era se você desviaria o curso para atropelar uma pessoa em vez de cinco, passou a ser se, diante de um acidente inevitável, um carro autônomo decidiria por salvar o ocupante ou pedestres.

Esses dilemas têm suas variações, mas aqui ressaltamos a mudança de quem toma a decisão: da pessoa para a máquina.

Hoje, essas questões éticas se tornaram muito mais urgentes e estão escondidas nos processos que realizamos cotidianamente em nossas empresas. Poucos de nós programam carros autônomos, mas muitos concedem crédito, fazem diagnósticos, planejam projetos, contratam pessoas.

A RESPONSABILIDADE NO USO DA IA

No encontro ampliado da comissão de ética da Fundação Dom Cabral (FDC), que realizamos dia 15 de outubro, tivemos uma discussão sobre "Tecnologia e conhecimento: a reflexão ética sobre 'quem é dono de quem?”, na qual pudemos aprofundar uma visão atualizada sobre atribuições de responsabilidade no uso da inteligência artificial.

A tecnologia pode ser compreendida enquanto uma aplicação prática de conhecimentos. Por isso, diante do crescimento da IA, convidamos os participantes do encontro a assumir responsabilidade sobre como utilizam essa tecnologia.

Crédito: iStock

Você pode estar se perguntando: “o que significa assumir responsabilidade nesse contexto de uso da IA”? Por exemplo, imagine que a inteligência artificial que você utiliza para alocar pessoas da equipe nos diferentes projetos da sua empresa está contribuindo com melhorias de produtividade, mas gerando sobrecarga de trabalho.

Você deveria intervir e ajustar manualmente a distribuição de tarefas? Quem será responsabilizado pelos resultados, você, ou a IA? Como você garantiria que a IA está tomando decisões corretas se não entende plenamente os parâmetros que ela usa?

Questões éticas estão escondidas nos processos que realizamos todos os dias em nossas empresas.

Dilemas como esse estão se tornando cada vez mais frequentes. O uso da IA gera situações novas, que dificultam o entendimento sobre nossas responsabilidades no ambiente de trabalho. Isso demanda que os profissionais sejam mais reflexivos sobre as diferentes bases morais, formas de reconhecimento e competências requeridas para o uso da IA em empresas.  

No encontro da FDC, compreendemos que assumir responsabilidade significa reconhecer que o uso da IA requer equilíbrio entre poder e dever. Não se trata apenas de delegar tarefas a sistemas autônomos, mas de garantir que aqueles que os implementam sejam capazes de atribuir corretamente as consequências de suas decisões. 

A responsabilidade, nesse contexto, envolve uma atribuição clara de deveres, capacidades e prestação de contas. Isso significa que quem utiliza IA deve estar preparado para responder não só pelos resultados diretos, mas também pelos impactos sociais e éticos das suas escolhas, assumindo o controle sobre os possíveis desdobramentos da tecnologia.  

EXPLICABILIDADE É ESSENCIAL

Mais automação não é necessariamente melhor. Esse entendimento, aparentemente contraintuitivo, torna-se óbvio quando paramos para refletir em mais profundidade sobre tudo o que envolve a delegação completa das nossas decisões para as máquinas. 

É contraintuitivo porque vivemos sob a égide da produtividade e da eficiência. Agora estamos vendo que, se seguirmos colocando a IA como atalho, as consequências ao trabalho humano e à sociedade serão gravíssimas.

Não faltam exemplos sobre vieses racistas nos sistemas de reconhecimento facial usados pelas polícias, ou sobre os riscos da automação completa dos processos de recrutamento e seleção. 

Dentre as diversas possibilidades de responder a esses riscos está o fortalecimento do princípio da explicabilidade no uso da IA para processos de tomada de decisão.  

Crédito: Freepik

Em um artigo publicado no Scholar Space, Max Schemmer, Niklas Kühl e Gerhard Satzger definem explicabilidade como a capacidade de um sistema de IA de fornecer uma compreensão clara e acessível sobre como ele toma decisões ou gera recomendações.

Isso significa que, quando um algoritmo faz uma escolha, ele deve ser capaz de explicar o raciocínio por trás dessa decisão de uma maneira que os usuários possam entender.

Na pesquisa, os autores comparam dois sistemas baseados em IA: os Decision Support System (DSS, Sistemas de Apoio à Decisão) x Automated Decision Making (ADM, Tomada de Decisão Automatizada). 

O DSS se concentra na eficácia e na eficiência da tomada de decisões, em vez de somente na eficiência. Segundo os autores, ao contrário do ADM, o DSS envolve o julgamento humano no processo de tomada de decisão, fornecendo ferramentas e insights para melhorar a qualidade das decisões em vez de tomá-las de forma autônoma.

quem utiliza IA deve estar preparado para responder não só pelos resultados diretos, mas também pelos impactos sociais e éticos das suas escolhas.

O DSS requer contribuição e interpretação humanas, permitindo que os usuários avaliem as opções com base na análise de dados e na experiência pessoal.

O DSS leva a decisões melhores, mas não é mais rápido e mais escalável. Não é mais produtivo ou mais eficiente – se continuarmos tendo como critérios máximos o curto prazo, a velocidade e a economia imediata de recursos.

Mas é melhor para as decisões tomadas e para os trabalhadores do conhecimento que, ao se manterem envolvidos nas etapas do processo, têm a oportunidade de ampliar, e não diminuir, as suas potencialidades, exercitando a criatividade e o pensamento crítico para tomar decisões com o apoio das máquinas.

Segundo os autores, “o envolvimento é a satisfação do indivíduo com o trabalho, bem como o entusiasmo”, e isso é essencial para que as pessoas se mantenham engajadas e sigam aprendendo. 

É URGENTE REVERMOS NOSSAS MÉTRICAS

Em discussões como as que tivemos na FDC, é possível perceber que a reflexão ética sobre o uso de IA no trabalho está sendo feita de forma ampla por diversos autores, que discutem seu impacto na produção acadêmica, na educação, no meio ambiente, nos negócios e nas relações de trabalho.

Mas também percebemos que essa discussão, embora rica, não é suficiente para que sejam feitas melhores escolhas de aplicação da IA na prática, no lugar em que ela está avançando e avançará muito nos próximos anos: o dia a dia dos trabalhadores do conhecimento. 

estamos vendo que, se seguirmos colocando a IA como atalho, as consequências ao trabalho humano e à sociedade serão gravíssimas.

Enquanto escrevíamos esse artigo, Harari resumiu bem o problema: “o paradoxo da humanidade é ter que desacelerar, mas rápido”, disse ele na Feira de Frankfurt.

À medida que a IA redefine os limites do possível, devemos resistir à tentação de valorizar a produtividade acima de todos os outros fatores, colocando a ética nessa posição. É fundamental que as empresas, ao avaliarem o impacto e o potencial da IA, reconsiderem as métricas pelas quais avaliam o sucesso.

A busca por eficiência não deve eclipsar os valores éticos que sustentam práticas de trabalho justas e humanizadas, assim como decisões que consideram a complexidade dos contextos para além do ganho imediato. 

A revisão urgente de nossas métricas e a implementação consciente de IA nos negócios não são apenas passos estratégicos, mas imperativos éticos que definirão o futuro do trabalho, impactando no futuro da sociedade e do planeta.


SOBRE O AUTOR

Clara Cecchini é especialista em aprendizagem e inovação, fundadora do Centro Brasileiro de Design de Aprendizagem e professora convid... saiba mais