Como evitar repetir com a IA os erros que cometemos com as redes sociais

A inteligência artificial oferece um imenso potencial, mas precisamos aprender com os erros do crescimento desregulado das redes sociais

Crédito: pingingz/ Getty Images

Usman Shuja 5 minutos de leitura

Como líder em uma empresa de tecnologia, acompanho de perto o enorme impacto da inteligência artificial, que tem o potencial de transformar indústrias e a sociedade como um todo. A IA promete aumentar a eficiência, resolver problemas complexos e criar novas oportunidades de crescimento.

No entanto, enquanto celebramos esses avanços, também precisamos reconhecer a importância de regulamentações e salvaguardas éticas. Se ignorarmos isso, corremos o risco de enfrentar os mesmos dilemas que surgiram com o desenvolvimento descontrolado das redes sociais.

O crescimento acelerado e pouco regulado dessas plataformas é um alerta que não podemos ignorar.

As redes sociais surgiram com grandes promessas: conectar pessoas no mundo todo, facilitar a comunicação instantânea e democratizar a criação de conteúdo. Mas a falta de regulamentação e a dependência excessiva de que os usuários entendessem termos e condições longos e complexos resultaram em sérias consequências éticas.

Esses erros mostram o perigo de delegar toda a responsabilidade aos consumidores para lidar com questões como privacidade, termos de uso e segurança de dados.

Hoje, a IA está avançando em um ritmo ainda mais rápido, com aplicações que vão além de dispositivos pessoais, alcançando áreas como infraestrutura, saúde e sistemas de justiça. Sem limites claros, os benefícios da tecnologia podem ser ofuscados por crises éticas semelhantes às das redes sociais.

Acredito que precisamos de um modelo de responsabilidade compartilhada para regulamentar a IA, envolvendo governos, empresas de tecnologia e usuários. Cada um desses grupos desempenha um papel essencial para garantir que a inteligência artificial seja desenvolvida de forma ética, transparente e em benefício da sociedade.

O PAPEL DO GOVERNO: ESTABELECER PADRÕES CLAROS

Os governos devem liderar o processo de criação de regulamentações que priorizem a privacidade, a transparência e a responsabilização. Diferente dos primeiros dias das redes sociais – quando os governos demoraram a reagir – os riscos com a IA são muito maiores, e os reguladores não podem se dar ao luxo de ficar à margem.

A IA já está sendo utilizada em setores sensíveis, onde algoritmos sem supervisão podem levar a decisões tendenciosas e outras consequências inesperadas. Os governos devem considerar a criação de um órgão regulador específico para IA, encarregado de estabelecer padrões éticos, monitorar a conformidade e aplicar penalidades em casos de uso indevido.

Algumas iniciativas já estão em andamento. No Brasil o Senado aprovou em dezembro o Marco Regulatório da Inteligência Artificial (Projeto de Lei 2.338/2023). O PL busca garantir segurança jurídica e ética no uso da tecnologia, além de proteger os direitos fundamentais, com destaque para os direitos autorais.

Senadores aprovaram em dezembro a regulamentação da IA no Brasil (Crédito: Marcos Oliveira/ Agência Senado)

O PL propõe também a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial. O texto ainda precisa ser discutido e votado na Câmara dos Deputados antes de ir à sanção presidencial.

A União Europeia propôs a Lei de IA, voltada para a regulamentação de aplicações de alto risco. Já a China introduziu diversas leis nacionais para regular tecnologias de inteligência artificial, combinando supervisão rigorosa – especialmente para impedir usos que desafiem a autoridade governamental – com incentivos à inovação e competitividade global.

Centro de inovação em IA no sudeste asiático, Cingapura conta com a iniciativa “AI Singapore”, que promove pesquisa e desenvolvimento de talentos, com foco no uso ético da tecnologia. Outros países deveriam seguir esses exemplos, criando regulamentações robustas que enfrentem riscos éticos sem sufocar a inovação.

EMPRESAS DE TECNOLOGIA: RESPONSABILIDADE ALÉM DO LUCRO

As empresas que desenvolvem IA têm o dever de priorizar a segurança, a transparência e a privacidade. Isso exige investimentos em dados imparciais, armazenamento seguro e algoritmos explicáveis, que ajudem tanto usuários quanto reguladores a entender como as decisões são tomadas.

Também é fundamental que implementem salvaguardas para prevenir danos não intencionais e que colaborem com reguladores para criar padrões realistas e eficazes.

O PAPEL DOS USUÁRIOS: RESPONSABILIDADE COMPARTILHADA

Embora os usuários não possam assumir toda a responsabilidade, eles desempenham um papel importante.

Com a rápida evolução da tecnologia, os usuários precisam se informar, exigir mais transparência e cobrar responsabilidade das empresas. Consumidores bem-informados fazem escolhas melhores, compreendem os riscos à privacidade e ajudam a pressionar por padrões éticos.

Os governos devem considerar a criação de um órgão regulador específico para IA.

A educação desempenha um papel fundamental nesse processo. Empresas e instituições educacionais devem trabalhar juntas para oferecer recursos que expliquem como a tecnologia funciona, como os dados são usados e quais são os direitos dos usuários. Usuários capacitados podem exigir uma IA mais responsável e ajudar a manter as empresas sob vigilância.

SOLUÇÕES COLABORATIVAS PARA UMA IA ÉTICA

Para evitar os problemas que vimos com as redes sociais, é essencial promover a cooperação entre governos, empresas e usuários. Os governos podem desenvolver certificações de IA ética, semelhantes aos padrões de cibersegurança, permitindo que empresas que atendam aos requisitos de transparência e privacidade sejam reconhecidas como provedores confiáveis.

As empresas também podem adicionar avisos a aplicativos baseados em IA que impactem áreas sensíveis, como saúde mental, assim como algumas plataformas de redes sociais estão começando a fazer.

Uma abordagem promissora é estabelecer um marco para auditorias regulares e transparentes de sistemas de IA, com governos, empresas e organizações independentes trabalhando juntos para garantir a conformidade com padrões éticos.

Esse tipo de estrutura criaria um ambiente no qual os usuários estariam protegidos, os governos poderiam aplicar regras sem sufocar a inovação e as empresas seriam incentivadas a cumprir suas responsabilidades éticas.

A inteligência artificial tem um enorme potencial, mas precisamos aprender com os erros do crescimento desregulado das redes sociais. Mais que isso, a responsabilidade por uma IA ética não pode recair sobre um único grupo.

Somente com a colaboração entre governos, empresas de tecnologia e usuários será possível criar um equilíbrio regulatório que maximize os benefícios da inteligência artificial enquanto protege a sociedade de seus riscos.

Com informações da redação da Fast Company Brasil


SOBRE O AUTOR

Usman Shuja é CEO da empresa de desenvolvimento de software Bluebeam. saiba mais