O futuro da IA será definido no campo de batalha da ética

As gigantes da tecnologia precisam criar equipes para se concentrar e aconselhar sobre a segurança de produtos alimentados por IA

Créditos: Zeljko Milojevic/ iStock/ pngegg

Matt Burt 3 minutos de leitura

Nos últimos meses, a indústria de tecnologia vem sendo afetada por demissões em massa, devido aos desafios macroeconômicos que estão impactando as previsões de receita e o desempenho financeiro das empresas. 

No entanto, um dos pontos positivos desse ano tem sido o crescimento e a adoção acelerada de tecnologias emergentes, especialmente a inteligência artificial. Embora não seja exatamente uma novidade, é inegável que a IA se tornou pauta de grande parte das conversas, dentro e fora do ambiente de trabalho.

E por uma boa razão. O potencial e a ampla adoção da IA são bastante significativos. Impulsionaram mudanças na indústria e estão alimentando tecnologias emergentes, como a IA generativa.

É fundamental que a privacidade esteja no centro de tudo.

Contudo, ainda há muitas perguntas sem respostas nesse estágio inicial. Com o surgimento do ChatGPT, vimos uma série de novas questões legais em torno da IA generativa e da propriedade de seus resultados, bem como sobre a proteção dos direitos autorais do conteúdo gerado.

Hoje, já existem processos judiciais em andamento. Grande parte deles de artistas e criadores de conteúdo que estão vendo suas obras sendo usadas sem qualquer forma de compensação.

Os resultados dessas disputas judiciais ajudarão a moldar o uso futuro da IA. Para que essa tecnologia tenha um crescimento sustentável e de longo prazo, ela deve ser ética e responsável. E, para isso, precisa considerar diversos fatores, como privacidade e viés.

EQUIPES ESPECIALIZADAS

Muitas das gigantes da tecnologia já haviam começado a criar equipes para se concentrar e aconselhar sobre a segurança de produtos alimentados por IA. Mas, com as demissões em massa, parece que também houve um corte nesse componente tão importante. 

A Microsoft, que incorporou o ChatGPT em seu pacote de produtos Microsoft 365, chegou ao ponto de desmontar completamente sua equipe de ética. E isso é algo bastante preocupante.

a ética no investimento e implementação da IA deve ser responsabilidade de uma equipe de liderança engajada.

Essas equipes foram originalmente criadas para elaborar e implementar um sistema de princípios morais e técnicas para o desenvolvimento e uso responsável da tecnologia de IA. 

Elas desempenham um papel fundamental na criação de diretrizes mais claras para os funcionários responsáveis pelo desenvolvimento do futuro de uma tecnologia que estará fortemente integrada ao nosso dia a dia. Sem essas estruturas para responsabilizar os desenvolvedores, há um risco maior de que o uso da IA se torne irresponsável e prejudicial para os usuários.

Em essência, a ética no investimento e implementação da IA deve ser responsabilidade de uma equipe de liderança engajada. Assim como a responsabilidade social corporativa (RSC) e a governança ambiental, social e corporativa (ESG), a IA precisa ser uma prioridade para as empresas. Afinal, todos esses elementos estão interconectados.

ESTRUTURAS DE GOVERNANÇA

Uma RSC sólida, junto com fatores ambientais, filantrópicos e econômicos, é essencial para operar negócios de maneira ética, respeitando os direitos humanos, incluindo a discriminação racial e de gênero. Empresas que desenvolvem e integram ferramentas de IA em seus produtos têm a responsabilidade de defender tais direitos para evitar o viés algorítmico.

Para que essa tecnologia tenha um crescimento sustentável e de longo prazo, ela deve ser ética e responsável.

Além disso, modelos de IA consomem grandes quantidades de energia para serem treinados. E não sabemos ainda o quanto isso pode atrapalhar as metas ESG das empresas. Mas o que está claro é que o sucesso dessa tecnologia será definido no campo de batalha da ética.

É fundamental que a privacidade esteja no centro de tudo. Legislações como o Regulamento Geral sobre a Proteção de Dados, da União Europeia, existem para regular o uso de sistemas de IA. Mas cabe às empresas garantir que suas diferentes equipes colaborem com os desenvolvedores para operar dentro dos limites das estruturas éticas e de privacidade.

Agora, com a recente carta aberta publicada pelo Instituto Future of Life, pedindo uma pausa no treinamento de poderosos modelos de IA por medo de consequências prejudiciais, temos uma escolha decisiva a fazer.

Como uma sociedade composta por empresas e governos, cada um de nós tem um papel a desempenhar na construção das bases que podem criar um futuro mais inclusivo e humano. Precisamos agir agora para garantir que as estruturas de governança estejam em vigor. Assim, poderemos começar a construir versões éticas de uma tecnologia que pode, sem dúvida, mudar o nosso mundo.


SOBRE O AUTOR

Matt Burt é diretor de operações comerciais e assuntos comerciais para Europa, Oriente Médio e África da R/GA London. saiba mais