4 passos para proteger sua empresa dos riscos do vibe coding

Vibe coding democratiza o desenvolvimento e impulsiona produtividade, mas também amplia riscos de segurança e compliance

como proteger sua empresa dos riscos do vibe coding
Créditos: Deagreez/ Getty Images/ Mitchell Nijman/ Unsplash

Tom Barnett 4 minutos de leitura

Você provavelmente já ouviu falar em vibe coding e talvez até tenha feito um ou dois experimentos por conta própria, recorrendo ao Claude ou a alguma outra ferramenta de IA para criar um site simples ou um jogo interativo.

Em termos mais diretos, vibe coding consiste em dizer a um programa de IA o que você quer fazer e deixar que ele gere o código. A partir da linguagem natural fornecida pelo usuário, a IA cria o software.

Trata-se de um instrumento de democratização realmente revolucionário no desenvolvimento de software. Ele permite que qualquer pessoa com um computador e um pouco de imaginação crie programas que parecem, ao menos na aparência, fazer exatamente o que foi pedido.

E é aí que mora o problema. Em tese, qualquer pessoa dentro de uma empresa pode inserir software dentro do perímetro de cibersegurança sem ter o menor conhecimento de como esse código funciona ou do que ele realmente foi projetado para fazer além do seu prompt engenhoso.

Se o código gerado por um funcionário tiver sido derivado, por sorte, de fontes públicas confiáveis e verificadas, ótimo. Mas o risco fundamental do código gerado por IA é justamente o fato de você não ter ideia de onde ele veio, quais foram as fontes ou como elas foram combinadas.

A origem foi um estudante de doutorado em uma universidade de ponta? Um hacker trabalhando no porão? Um ciberterrorista patrocinado por um Estado? Ou todos eles ao mesmo tempo?

O programa de IA que você está usando não sabe, nem se importa. Ele apenas cumpre, com velocidade impressionante e total falta de consciência, sua missão de identificar padrões.

VIBE CODING IMPLICA RISCOS

Aquele programa incrível que você acabou de criar sem nunca ter aprendido a escrever uma linha de código pode conter spyware de nível avançado, vírus ou malwares capazes de extrair dados proprietários da empresa, ou ainda ataques como injeções de SQL, que podem causar estragos nos bancos de dados.

Do ponto de vista de um agente malicioso, há uma “beleza” nisso tudo: não é preciso nem uma porta dos fundos. Feliz e desavisado, o funcionário que importa um código misterioso acabou de escancarar a porta da frente.

E não para por aí.

Pixel Agent, ferramenta para codificação com IA
Créditos: Softulka/ Pixel Choice/ Natalia Kosheleva/ Getty Images/ publicarray/ Pixabay

O código gerado via vibe coding com a ajuda da IA também pode violar leis de direitos autorais ou patentes. Qual a chance de um funcionário não técnico perceber isso? Praticamente zero. O risco jurídico associado à propriedade intelectual gerada por IA pode transformar radicalmente o perfil de litígios de uma empresa.

Quando você gera código com um grande modelo de linguagem (LLM), ele terá bugs, assim como qualquer código escrito por humanos. Mas, ao contrário do código tradicional, não há ninguém na equipe que compreenda plenamente como ele foi construído.

Isso inclui entender se ele é estruturalmente sólido, coerente ou onde estão suas vulnerabilidades. Resolver esse problema não parece ser prioridade em meio ao atual clima de “avante a toda velocidade, custe o que custar” que domina o entusiasmo com a IA.

O QUE FAZER PARA REDUZIR RISCOS

O que se pode fazer para gerenciar esse risco e evitar uma potencial catástrofe? O primeiro passo é reconhecer o perigo. A partir daí, algumas medidas são essenciais:

1. É um problema em de diretoria – trate como tal

A segurança em IA é um desafio estratégico que envolve toda a empresa e precisa estar na agenda da alta liderança. Com o uso de IA incorporado a áreas como finanças, RH, jurídico, vendas, marketing, design e engenharia, os aspectos técnicos são apenas a porta de entrada. Não dá para delegar isso apenas à TI, como costuma acontecer com cibersegurança.

2. Incorpore a segurança ao processo

Não espere reagir depois de o problema acontecer. No caso da IA, o modelo antigo de criar políticas e pedir que funcionários as leiam e confirmem não funciona mais.

Monitoramento e mitigação de riscos precisam estar embutidos nos próprios processos técnicos — e não em documentos estáticos esquecidos em alguma pasta virtual.

bots que cuidam da cibersegurança
Créditos: Mohamed Nohassi/ Unsplash/ bagotaj/ Adobe Stock/ Eva Bronzini/ Pexels

Já existem soluções de software capazes de identificar, avaliar, quantificar e tratar esses riscos antes que virem crises. Vale considerar sua adoção o quanto antes para garantir que a segurança acompanhe o ritmo da implementação de IA.

3. Exija responsabilidade dos fornecedores

Peça aos fornecedores que expliquem claramente como a IA é usada em suas aplicações, quais são os riscos envolvidos e como eles podem ser avaliados e resolvidos em tempo real (em segundos ou minutos, não trimestres). Isso está rapidamente se tornando um requisito básico, muito além dos tradicionais questionários de segurança “checklist”.

4. Consulte especialistas

Uma nova indústria está surgindo justamente para lidar com o descompasso entre o uso acelerado de IA nas organizações e a falta de protocolos para responder aos riscos, muitos deles ainda pouco compreendidos. Buscar orientação especializada pode fazer toda a diferença.

Leia mais: Além do ChatGPT: como a Anthropic está transformando a programação

A capacidade de permitir que funcionários não técnicos criem código com IA é, de fato, revolucionária. Mas, como a história mostra, revoluções podem seguir caminhos muito diferentes.

Ignorar os riscos inerentes a essas novas capacidades não é uma opção. Porque, no fim das contas, só “ir na vibe” tem limites.


SOBRE O AUTOR

Tom Barnett é sócio e chief data officer do escritório de advocacia Jackson Lewis. saiba mais