Por que as questões éticas são tão importantes quando se trata de IA

Garantir a ética da IA na prática significa implementar estruturas de gestão e processos que permitam às organizações identificar e mitigar ameaças

Créditos: Tatyana Khanko/ luchezar/ Nadya So/ iStock

Dennis Hirsch e Piers Norris Turner 5 minutos de leitura

A pressa em adotar novos e poderosos modelos de IA generativa, como o ChatGPT, tem gerado muita preocupação sobre possíveis danos e usos indevidos. Sem uma legislação para lidar com essas questões, há uma pressão cada vez maior sobre as empresas responsáveis pelo desenvolvimento dessas tecnologias para que as implementem de forma ética. Mas o que isso realmente significa?

Uma resposta direta seria alinhar as operações comerciais com um ou mais dos muitos conjuntos de princípios éticos de IA elaborados por governos, grupos multissetoriais e acadêmicos. Contudo, esta é uma tarefa mais desafiadora do que parece.

a IA generativa traz preocupações relacionadas à desinformação, discurso de ódio e violação de propriedade intelectual.

Passamos dois anos entrevistando e realizando pesquisas com profissionais de ética em inteligência artificial de diversos setores para compreender como pretendem alcançá-la e o que pode estar sendo negligenciado.

Descobrimos que, na prática, isso tem menos a ver com transformar princípios éticos em ações corporativas e mais com implementar estruturas de gestão e processos que permitam às organizações identificar e mitigar ameaças.

Essa pode ser uma notícia desanimadora para as empresas que buscam diretrizes objetivas e evitam zonas cinzentas, assim como para os consumidores que esperam padrões claros e protetivos. Mas nos leva a uma melhor compreensão de como as organizações podem garantir a ética da IA.

Créditos: Zeljko Milojevic/ iStock/ pngegg

DADOS ENVIESADOS

Nosso estudo se concentrou nos responsáveis por lidar com questões éticas da IA em grandes empresas de tecnologia. Entre o final de 2017 e o início de 2019, entrevistamos 23 desses gestores e, a partir dessas conversas, chegamos a quatro conclusões principais.

Em primeiro lugar, o uso corporativo da IA apresenta riscos significativos, e as empresas estão cientes disso. Os gestores de ética em IA expressaram preocupações sobre privacidade, manipulação, viés, desigualdade e substituição de empregos.

as empresas, assim como os indivíduos, devem buscar compreender como a IA afeta as pessoas e o meio ambiente.

Um exemplo conhecido é o caso da Amazon, que desenvolveu uma ferramenta de IA para classificar currículos e a treinou para encontrar candidatos semelhantes aos que já havia contratado antes. Devido à predominância masculina na indústria de tecnologia, a maioria de seus funcionários era composta por homens. Como resultado, a ferramenta aprendeu a rejeitar candidatas do sexo feminino. Incapaz de resolver o problema, a Amazon teve que abandonar o projeto.

Além disso, a IA generativa também traz preocupações relacionadas à desinformação, discurso de ódio e violação de propriedade intelectual.

REPUTAÇÃO EM JOGO

Em segundo lugar, as empresas que buscam garantir a ética da IA o fazem principalmente por razões estratégicas. Elas desejam manter a confiança de seus clientes, parceiros de negócios e funcionários, além de se antecipar ou se preparar para futuras regulamentações.

as empresas que desejam utilizar a IA de forma ética devem focar em tomar decisões responsáveis em um mundo com compreensão limitada e circunstâncias em constante mudança.

O escândalo envolvendo o Facebook e a Cambridge Analytica mostrou como o uso antiético de análises avançadas pode destruir a reputação de uma empresa e, em alguns casos, até levá-la à falência. As organizações com as quais conversamos desejam ser vistas como administradoras responsáveis dos dados dos usuários.

O desafio enfrentado pelos gestores consiste em descobrir a melhor maneira de alcançar a “IA ética”. Inicialmente, eles se concentraram nos princípios éticos da inteligência artificial, especialmente aqueles fundamentados na bioética ou nos direitos humanos, mas os consideraram insuficientes.

Não era apenas uma questão de existirem vários conjuntos de princípios concorrentes. Também se tratava do fato de que conceitos como justiça, equidade, autonomia e outros princípios semelhantes são disputados, passíveis de interpretação e podem entrar em conflito uns com os outros.

Isso nos levou à terceira conclusão: é necessário mais do que apenas princípios éticos para decidir o que fazer em situações específicas. Um dos gestores entrevistados mencionou a tentativa de traduzir os princípios de direitos humanos em um conjunto de perguntas que os desenvolvedores poderiam utilizar para criar sistemas de IA mais éticos. “Paramos depois de 34 páginas”, afirmou.

Créditos: The Motion Cloud/ iStock/ pngwing

LIDANDO COM INCERTEZAS ÉTICAS

Em quarto lugar, profissionais que lidam com incertezas éticas recorrem a estruturas e procedimentos organizacionais para descobrir o que fazer. Alguns desses métodos são claramente insuficientes. Mas outros, embora ainda em desenvolvimento, se mostram bastante úteis, como:

  • Contratar um gestor de ética de IA para construir e supervisionar o programa;
  • Estabelecer um comitê interno de ética em IA para avaliar e tomar decisões sobre questões complexas;
  • Criar listas de verificação de ética de dados e exigir que os cientistas da linha de frente as preencham;
  • Buscar perspectivas alternativas de acadêmicos, ex-reguladores e defensores;
  • Realizar avaliações de impacto algorítmico, semelhantes às usadas em governança ambiental e de privacidade.

A ideia-chave que surgiu em nosso estudo é a seguinte: as empresas que desejam utilizar a IA de forma ética não devem buscar um conjunto simples de princípios que ofereça respostas com base em um conhecimento absoluto. 

Em vez disso, devem focar em tomar decisões responsáveis em um mundo com compreensão limitada e circunstâncias em constante mudança, mesmo que algumas decisões acabem sendo imperfeitas.

Na ausência de requisitos legais explícitos, as empresas, assim como os indivíduos, devem buscar compreender como a IA afeta as pessoas e o meio ambiente, e se manter atualizadas sobre a opinião pública, sobre as pesquisas mais recentes e sobre o que o dizem os especialistas.

Este artigo foi republicado do The Conversation sob licença Creative Commons. Leia o artigo original.


SOBRE O AUTOR

Dennis Hirsch é professor de direito e ciência da computação e diretor do Programa de Dados e Governança da Universidade Estadual de O... saiba mais