Os prós e contras do novo modelo de linguagem de código aberto da Meta
Embora ele possa ajudar a acelerar a inovação, também pode facilitar a criação de deepfakes
A Meta lançou recentemente uma nova versão de seu modelo de IA generativa. A gigante das redes sociais anunciou o Llama 3, a próxima geração de seu modelo de código aberto para o assistente de inteligência artificial Meta AI.
Deixando de lado a questão de se este lançamento garante à empresa uma posição à frente dos concorrentes na corrida da IA, há um ponto mais importante aqui: o fato de ele ser um grande modelo de linguagem (LLM, na sigla em inglês) de código aberto levanta algumas questões sobre os riscos de democratizar a IA tão cedo no processo de desenvolvimento da tecnologia.
Especialistas apontam tanto prós quanto contras. Embora possa ajudar a acelerar a inovação, a inteligência artificial também pode facilitar a criação de deepfakes e outros usos prejudiciais. É uma área delicada e incerta.
A Meta não é a única empresa a abrir o código de seu modelo. O Gemma, do Google, também faz parte do ecossistema de código aberto. Aqui estão algumas questões que devemos considerar:
1. Quais são as vantagens dos LLMs de código aberto?
Os especialistas dizem que eles incentivam a transparência e podem aumentar a confiança do público na tecnologia. Quando as empresas de IA utilizam uma arquitetura fechada, surgem questões sobre a origem e o viés.
Além disso, o código aberto permite que pesquisadores e a comunidade explorem novas oportunidades. No melhor dos casos, pode impulsionar a produtividade e o desenvolvimento de soluções que agreguem valor aos resultados.
“Com LLMs de código aberto, as organizações terão mais capacidade de desenvolver e implementar soluções de IA”, afirma Rajiv Garg, professor da Escola de Negócios Goizueta, da Universidade Emory.
“O Llama 3 é um modelo robusto, que reduzirá a barreira de entrada para a maioria das organizações – especialmente aquelas que desejam ajustar esses modelos com dados internos.”
2. Quais são as possíveis desvantagens?
A internet está repleta de pessoas mal-intencionadas – e elas estão ansiosas para usar novas tecnologias para fins maliciosos.
“Modelos de código aberto são suscetíveis a ataques e violações, potencialmente comprometendo os dados e a privacidade do usuário”, destaca Dmitry Shapiro, fundador e CEO do MindStudio. “[Eles] podem ser explorados para fins prejudiciais, como disseminação de desinformação ou propaganda.”
O suporte e a manutenção desses modelos também podem ser um problema, assim como o controle de qualidade. A menos que a Meta mantenha uma supervisão rigorosa sobre seu modelo, ele poderia fornecer respostas inconsistentes, o que pode frustrar os usuários e agravar problemas sociais existentes.
“Consequências não intencionais podem surgir quando modelos de código aberto são usados para fins maliciosos, como geração de deepfakes ou propaganda”, diz Shapiro. “Além disso, existe o risco de proliferação descontrolada, com modelos de código aberto sendo empregados sem que implicações éticas ou sociais sejam devidamente consideradas.”
3. O uso de tecnologias de código aberto aumenta a necessidade de regulamentação da IA?
Os especialistas estão divididos sobre essa questão. Shapiro argumenta que modelos de código aberto facilitam a transparência, o que torna a regulamentação mais simples. Garg, no entanto, diz que, sem regulamentação, as portas estão abertas para qualquer tipo de aplicação. Portanto, ele acredita que são necessárias diretrizes para criar soluções responsáveis de IA.
De qualquer forma, os desenvolvedores são amplamente a favor de o governo estabelecer regras para a inteligência artificial. O CEO da OpenAI, Sam Altman, em uma audiência no Senado norte-americano no ano passado, pediu que o governo regulamentasse a indústria, incluindo sua empresa.
No mês seguinte, Altman e alguns dos maiores nomes do campo da IA, incluindo os diretores científicos e de tecnologia da Microsoft, assinaram uma declaração alertando que esta tecnologia poderia representar um risco existencial.
4. Qual o nível de responsabilidade que a Meta e as outras empresas têm sobre o uso de seus modelos de código aberto?
Ninguém sabe a resposta para essa pergunta, mas há muitos riscos envolvidos, incluindo privacidade de dados, difamação e danos à reputação.
LLMs de código aberto levantam questões sobre os riscos de democratizar a IA tão cedo no desenvolvimento da tecnologia.
Se o LLM for mal utilizado ou apresentar mau funcionamento, a Meta ou outras empresas que desenvolveram o modelo podem ser responsabilizadas, especialmente se não cumprirem os regulamentos. Mas tudo isso é teórico no momento. E as muitas possibilidades dos sistemas de IA de código aberto aumentam a confusão.
“A responsabilidade é um tema difícil quando se trata de modelos fundamentais, porque existem muitos componentes interconectados, desde os dados de treinamento e a configuração de modelo até os aplicativos construídos a partir deles, muitas vezes envolvendo diferentes parte ”, observa Ben James, fundador e CEO da Atlas Design.
“É difícil determinar quem é responsável por um modelo fundamental quando alguém constrói algo a partir dele e outra pessoa utiliza isso para criar algo novo.”