MaliciousCorgi: extensões de IA populares vazaram código de 1,5 milhão de desenvolvedores
Em 22 de janeiro de 2026, pesquisadores da Koi Security identificaram uma campanha coordenada de spyware disfarçada como assistentes de código baseados em IA. As extensões "ChatGPT - 中文版" e "ChatMoss (CodeMoss)" para VS Code — com 1,35 milhão e 150 mil instalações respectivamente — continham código malicioso idêntico operando sob a mesma infraestrutura de exfiltração.
O impacto é significativo: estima-se que 1,5 milhão de desenvolvedores tiveram potencialmente seu código, credenciais e arquivos de configuração expostos. Para engenheiros que trabalham com sistemas de IA, o caso levanta questões críticas sobre a segurança da cadeia de suprimentos de ferramentas de desenvolvimento.
A descoberta afeta principalmente desenvolvedores que utilizam assistentes de código com IA em seus workflows, especialmente aqueles que trabalham com dados sensíveis, chaves de API e código proprietário.
O QUE FOI DESCOBERTO
A equipe de segurança da Koi identificou que duas extensões aparentemente independentes compartilhavam:
- Código malicioso idêntico em suas bases de código
- Mesma infraestrutura de comando e controle (domínio: aihao123.cn)
- Publishers diferentes (WhenSunset e zhukunpeng), sugerindo coordenação deliberada
| Extensão | Publisher | Instalações | Status |
|---|---|---|---|
| ChatGPT - 中文版 | WhenSunset | 1,35M | Ativa no momento da descoberta |
| ChatMoss (CodeMoss) | zhukunpeng | 150K | Ativa no momento da descoberta |
Ambas as extensões ofereciam funcionalidades legítimas de autocompletar código com IA, mas operavam canais paralelos de exfiltração de dados.
VISÃO TÉCNICA SIMPLIFICADA
Arquitetura do Ataque em Três Canais
O malware utilizava três mecanismos distintos de coleta de dados, operando simultaneamente:
Canal 1: Monitoramento em Tempo Real
- Captura o conteúdo inteiro de arquivos quando abertos (não apenas o contexto de digitação)
- Codifica arquivos em Base64 e transmite via iframes ocultos
- Dispara em cada evento de teclado através do hook
onDidChangeTextDocument
Essa abordagem é particularmente insidiosa porque extensões legítimas de autocomplete normalmente enviam apenas ~20 linhas de contexto durante a digitação ativa.
Canal 2: Harvesting Controlado por Servidor
- Permite trigger remoto sem interação do usuário
- Parseia campos
jumpUrlde respostas do servidor como JSON executável - Comando
getFilesListcoleta até 50 arquivos por demanda - Opera independentemente da consciência do usuário
Canal 3: Profiling Comportamental
- Iframe invisível (zero pixels) carrega quatro plataformas de analytics:
- Zhuge.io
- GrowingIO
- TalkingData
- Baidu Analytics
- Constrói perfis de identidade, fingerprints de dispositivo e tracking comportamental
- O profiling precede decisões de targeting de exfiltração
Indicadores de Comprometimento (IoCs)
Domínio C2: aihao123.cn
Extension IDs:
- whensunset.chatgpt-china
- zhukunpeng.chat-moss
O QUE MUDA NA PRÁTICA PARA ENGENHEIROS DE IA
🔐 Riscos de Segurança
- Arquivos
.envcom credenciais de APIs de LLMs (OpenAI, Anthropic, etc.) podem ter sido exfiltrados - Chaves SSH e tokens de acesso a serviços cloud expostos
- Código de fine-tuning, datasets proprietários e prompts de sistema comprometidos
🏗️ Arquitetura de Workflows
- Necessidade de revisar a política de extensões permitidas em ambientes de desenvolvimento
- Separação mais rígida entre ambientes de desenvolvimento e credenciais de produção
- Implementação de secrets management com rotação automática
💸 Custos Potenciais
- Custos de rotação emergencial de credenciais
- Investigação forense para determinar escopo de exposição
- Possível uso fraudulento de APIs com chaves vazadas
🧪 Maturidade do Ecossistema
- O marketplace do VS Code não possui verificação rigorosa de código de extensões
- Extensões populares não são necessariamente seguras
- A popularidade pode ser artificialmente inflada
CASOS DE USO REAIS E POTENCIAIS DOS DADOS VAZADOS
O tipo de dados exfiltrado tem valor significativo para diferentes atores maliciosos:
Para Competidores
- Código-fonte de features não lançadas
- Arquiteturas de sistemas de IA proprietários
- Datasets de treinamento e fine-tuning
Para Atacantes
- Credenciais para APIs de serviços cloud (AWS, GCP, Azure)
- Tokens de acesso a repositórios privados
- Chaves de API de provedores de LLM para uso fraudulento
Para Espionagem Industrial
- Propriedade intelectual de empresas de tecnologia
- Algoritmos e modelos proprietários
- Configurações de infraestrutura
LIMITAÇÕES, RISCOS E PONTOS DE ATENÇÃO
Sobre a Descoberta
- O status atual das extensões no marketplace não foi confirmado publicamente
- O número exato de desenvolvedores efetivamente comprometidos é desconhecido
- Não está claro se o código foi usado ativamente para ataques direcionados
Sobre a Atribuição
- A infraestrutura conectada a servidores chineses não prova necessariamente origem geográfica
- Publishers podem usar identidades falsas
- A coordenação entre as extensões sugere um ator organizado
Riscos Mais Amplos
- Outras extensões de IA no marketplace podem conter código similar
- A corrida por ferramentas de IA criou um vetor de ataque atraente
- Desenvolvedores tendem a confiar em ferramentas com muitas instalações
O QUE OBSERVAR NOS PRÓXIMOS MESES
Resposta do VS Code Marketplace:
- Microsoft deve implementar verificações mais rigorosas?
- Haverá mudanças nas políticas de extensões?
Evolução do Ataque:
- Outras extensões de IA serão identificadas com comportamento similar?
- Atacantes migrarão para outras IDEs (JetBrains, Cursor, etc.)?
Regulamentação:
- Casos como este podem acelerar regulamentação de supply chain de software?
- Empresas passarão a exigir auditorias de extensões?
Ferramentas de Detecção:
- Surgimento de soluções específicas para análise de comportamento de extensões?
- Integração de scanning de extensões em pipelines de CI/CD?
CONEXÃO COM APRENDIZADO
Para quem quer se aprofundar em como arquitetar sistemas de IA seguros — incluindo gestão de credenciais, sandboxing de ferramentas e segurança de pipelines de ML — esse tema faz parte dos estudos da AI Engineering Academy.
🚀 Faça parte da comunidade AI Engineering
Quer receber as principais notícias de AI Engineering em primeira mão e trocar ideias com outros profissionais? Entre no nosso grupo no WhatsApp!
Termos relacionados: supply chain security, VS Code extensions, spyware, code exfiltration, AI coding assistants, malicious extensions, developer security, IDE security, credentials theft, software supply chain attack
Quer ir além das notícias?
Aprenda a construir aplicações com IA na AI Engineering Academy.
Fique por dentro das novidades
Receba as últimas notícias sobre AI Engineering diretamente no seu email. Sem spam, prometemos.
Ao se inscrever, você concorda com nossa política de privacidade .
Artigos Relacionados
Treinamento de RL Agêntico para modelos GPT-OSS: lições práticas do LinkedIn com MoE e FlashAttention
LinkedIn revela desafios técnicos ao treinar modelos GPT-OSS com RL agêntico: problemas de roteamento MoE, inconsistênci...
Graph Neural Networks para previsão de demanda: por que séries temporais sozinhas não bastam
Previsão de demanda tradicionalmente trata cada SKU isoladamente. Graph Neural Networks mudam isso ao capturar relações...
10 lições que um programador aprendeu ao se esgotar usando agentes de IA para codificação
Jornalista e programador veterano compartilha insights de 50 projetos usando Claude Code e Codex: da euforia inicial ao...