7 erros que mostram que a revolução da IA ainda não chegou
Chatbots que plagiam textos e carros autônomos que provocam acidentes estão entre os problemas que a IA ainda terá que resolver
Hoje em dia, parece que só se fala sobre inteligência artificial (IA). Quais profissões poderão ser substituídas pela automação ou como garantir que a tecnologia não destrua a sociedade são alguns dos assuntos que estão tomando conta das rodas de conversa.
Os avanços tecnológicos são tão surpreendentes que é fácil esquecer das vezes em que a inteligência artificial agiu como um vilão de filme, roubando obras de artistas e causando acidentes de trânsito. Reunimos sete erros dos últimos meses que mostram que a tecnologia ainda tem alguns problemas para resolver.
1 . IA da CNET comete erros e plagia escritores
A agência de notícias CNET tem enfrentado críticas desde que surgiram notícias de que estava publicando artigos gerados por IA sob a assinatura “Equipe CNET Money”. Para piorar a situação, o site Futurism descobriu que não apenas muitos dos artigos continham erros, como, às vezes, plagiavam o trabalho de escritores humanos. Esqueça as três leis da robótica; alguém precisa lembrar a CNET do mandamento “não roubarás”.
2 . Veículo autônomo da Tesla causa acidente envolvendo oito carros
No feriado de Ação de Graças nos EUA (na última semana de novembro), um veículo Tesla entrou em uma via expressa e freou repentinamente, causando um engavetamento de oito carros na ponte San Francisco-Oakland Bay, na Califórnia. Nove pessoas ficaram feridas, incluindo uma criança, mas nenhuma em estado grave.
muitos artigos escritos por IA continham erros eàs vezes plagiavam o trabalho de escritores humanos.
Uma investigação federal confirmou que o veículo estava usando o novo sistema de condução autônoma, ainda em versão beta, no momento do acidente. Isso, apesar de Elon Musk ter afirmado no Twitter que nenhum acidente ou ferimento foi relatado em veículos usando o software.
Desde dezembro, a Administração Nacional de Segurança Rodoviária investigou pelo menos 41 acidentes nos EUA nos quais o sistema de condução autônoma da Tesla podem estar envolvidos. A agência está no meio de uma extensa investigação sobre a segurança do recurso.
3 . Moderadores do ChatGPT recebem menos de US$ 2 por hora
A criadora do ChatGPT, OpenAI, fala muito sobre as medidas de proteção que implementou para detectar uso indevido e possíveis danos. Acontece que, como o jornalista Billy Perrigo relatou na revista “Time”, a empresa simplesmente terceirizou o trabalho para funcionários no Quênia, que ficaram responsáveis por filtrar discursos de ódio e conteúdos impróprios na plataforma, pagando-os menos de US$ 2 por hora. O trabalho era tão traumático que a empresa terceirizada acabou cancelando o contrato.
4 . ChatGPT reproduz discursos racistas
Aparentemente, não é preciso muito para que o ChatGPT destile falas preconceituosas: quando o “The Intercept” perguntou como ele avaliaria a “pontuação de risco” de um indivíduo antes de viajar, o chatbot sugeriu que pessoas
Algumas IAs treinadas com dados extraídos da internet exibem comportamentos de intolerância desenfreada.
nascidas na Síria, Iraque e Afeganistão apresentam riscos de alta segurança.
Esta não é a primeira vez que uma inteligência artificial treinada com dados extraídos da internet exibe comportamentos de intolerância desenfreada. A máquina reproduz o que vê. Mas esperávamos que haveria filtros melhores hoje em dia.
5 . Chatbots controversos que mentem
O aplicativo Historical Figures permite que os usuários conversem com uma versão de IA de milhares figuras históricas. A lista inclui, por algum motivo, déspotas violentos, como Hitler e Pol Pot.
O desenvolvedor afirma que o aplicativo é uma ferramenta educacional. Mas a NBC News descobriu que os chatbots tendem a mentir, principalmente sobre seus crimes contra a humanidade. Se o Hitler gerado pela IA não é para fins educacionais, para que serve? 6 . Lensa gera imagens de cunho sexual.
6 . Lensa gera imagens de cunho sexual
Por US$ 4, o Lensa gera imagens em diferentes estilos a partir de selfies enviadas pelos usuários. O problema é que o aplicativo tende a produzir imagens sexualizadas, especialmente de mulheres.
Em dezembro, o site TechCrunch informou que o app permitia, inclusive, a criação de “soft porn não consensual” de celebridades.
Para piorar a situação, a inteligência artificial que criou essas imagens foi treinada com obras sem o consentimento dos artistas, de acordo com um especialista entrevistado pelo “The New York Times”.
7 . App de aconselhamento envia secretamente mensagens geradas por IA
Em outubro, Koko, um aplicativo que conecta usuários a voluntários anônimos para apoio emocional, enviou quatro mil mensagens geradas por IA sem alertar os usuários, segundo a NBC News. Os desenvolvedores não revelaram que o experimento estava ocorrendo até janeiro.
Os usuários não foram informados sobre o estudo e não tiveram a possibilidade de optar por não receber as mensagens geradas. A pior parte é que o cofundador do aplicativo disse à NBC que as respostas geradas tiveram avaliações “significativamente melhores do que as que foram escritas por humanos”.