
A IA Está Escrevendo Código com Portas dos Fundos — Sem Mesmo Perceber

Um estudo recente expôs um perigo oculto no código escrito por IA generativa: os modelos frequentemente "alucinam" componentes de software que na verdade não existem, criando potenciais portas de entrada para ciberataques. Pesquisadores da Universidade do Texas em San Antonio analisaram 576.000 trechos de código gerados por 16 modelos populares de IA, incluindo GPT-4 e Claude. Em 19,7% dos casos, o código incluía referências a bibliotecas falsas — totalizando cerca de 440.000 dependências inválidas.
Hackers podem explorar isso registrando pacotes com nomes que as IAs costumam inventar por engano e preenchendo-os com código malicioso. Se os desenvolvedores instalarem esses componentes sem verificar sua autenticidade, o malware entra. Durante o experimento, pacotes de teste com nomes inventados foram baixados dezenas de milhares de vezes.
Principais descobertas:
- Modelos de código aberto (como CodeLlama e DeepSeek) cometeram esses erros 22% das vezes — quatro vezes mais do que modelos comerciais (5%). Os pesquisadores acreditam que isso se deve ao tamanho do modelo, com IAs comerciais geralmente tendo 10 vezes mais parâmetros.
- javascript é mais vulnerável do que Python: 21% do código JS tinha dependências falsas, em comparação com 16% no Python. Isso provavelmente ocorre porque o ecossistema JS tem 10 vezes mais pacotes, tornando mais difícil para as IAs sugerirem pacotes precisos.
- A repetição é um grande problema: 43% dessas “alucinações” ocorreram pelo menos 10 vezes. Isso torna os ataques mais fáceis — hackers não precisam adivinhar, apenas rastrear erros comuns gerados por IA.
Essa técnica, conhecida como Confusão de Dependência, funciona substituindo um pacote legítimo por um malicioso que tem o mesmo nome. Por exemplo, um hacker publica um pacote com Trojan em um repositório. Se a IA sugerir isso em vez da versão oficial e um desenvolvedor instalá-lo sem verificar a fonte, o sistema fica comprometido.
Com a Microsoft prevendo que a IA escreverá 95% de todo o código até 2030, essas descobertas são um alerta. Até que redes neurais possam distinguir de forma confiável ficção de fato, o ônus da segurança permanece firmemente nas mãos humanas.