Un hacker injecte un prompt destructeur dans un dépôt Amazon

Un hacker injecte un prompt destructeur dans un dépôt Amazon

Et si une IA effaçait tout simplement vos fichiers… parce qu’on lui a demandé ? C’est exactement ce qu’a tenté un hacker en injectant un prompt extrêmement dangereux dans le plugin officiel d’Amazon Q pour VS Code. Plus qu’une simple provocation, cette attaque met en lumière les failles humaines dans la chaîne logicielle. Voici ce qu’il s’est vraiment passé.

Un commit piégé dans un plugin Amazon

Le 13 juillet 2025, un certain lkmanka58 pousse un commit sur le dépôt GitHub du plugin officiel Amazon Q pour VS Code. Ce commit contient un simple texte, stocké dans une variable PROMPT, qui demande à une IA d’effectuer les actions suivantes :

  • nettoyer le système,
  • supprimer les fichiers du disque dur local,
  • effacer les ressources cloud liées à AWS,
  • enregistrer les actions dans /tmp/CLEANER.LOG.

Un détail inquiétant : ce texte est passé à une commande système (childProcess.exec) dans un fichier actif de l’extension.

Ce n’est pas (juste) une prompt injection

On pourrait croire à une prompt injection classique, mais ce n’est qu’un des éléments rendant le hack possible.
Le véritable problème ici est plus fondamental : le hacker a obtenu des droits d’écriture sur un dépôt officiel Amazon. Et il les a utilisés pour injecter un "prompt destructeur" dans un plugin distribué publiquement via le marketplace VS Code. La version vérolée (1.84.0) a été publiée le 17 juillet, avant d’être retirée en urgence le 19 juillet.


Capture du commit malveillant injecté dans le plugin Amazon Q
Un extrait du commit controversé montre un prompt destructeur demandant à une IA de supprimer fichiers locaux et ressources AWS. Ce texte a été injecté directement dans le code source d’un plugin officiel Amazon.

Un scénario catastrophe plausible

Ce qui rend cette attaque si marquante, c’est qu’elle repose sur une idée terrifiante mais simple : une IA avec les accès suffisant pourrait exécuter des commandes dangereuses juste parce qu’on lui a formulé la demande.

Si l’extension avait exécuté ce prompt via un agent IA mal conçu, avec accès au terminal, alors :

  • les fichiers locaux de l’utilisateur auraient pu être effacés,
  • ses ressources AWS supprimées (si connecté via aws configure),
  • son identité IAM modifiée ou détruite.

Heureusement, le format du prompt était mal structuré et la commande q utilisée semble être fictive ou interne.

Ce que cela révèle sur la sécurité IA

Cette attaque ne cible pas une faille dans l’IA elle-même, mais dans l’environnement qui l’entoure. Elle démontre :

  • l’importance de valider chaque contribution sur un dépôt open source,
  • les risques d’utiliser des IA agentiques sans vérification humaine,
  • l’urgence de cloisonner les agents IA dans des environnements sûrs (VM, sandbox).

C’est un exemple frappant de ce que peut causer une architecture trop confiante : une IA qui exécute ce qu’on lui dit, sans discernement, ni garde-fous.

Sources


Qu’est-ce qu’une prompt injection ?

Une prompt injection consiste à détourner un système basé sur une IA en y injectant un texte malveillant ou manipulateur. L’objectif est que l’IA interprète ce texte comme une instruction à exécuter (un prompt).

La prompt injection sur Amazon Q était-elle une vraie menace ?

Oui, car le plugin compromis a été diffusé publiquement. Si une IA avait interprété le prompt injecté et exécuté les commandes, les fichiers locaux et les ressources cloud de l’utilisateur auraient pu être supprimés.

Les fichiers d’Amazon ont-ils été touchés par une prompt injection sur Amazon Q?

Non. Le prompt visait les fichiers locaux et les ressources cloud de l’utilisateur final, pas les serveurs internes d’Amazon.

Que retenir de l'attaque par prompt injection contre Amazon Q pour la sécurité IA ?

Il est crucial de restreindre les actions des agents IA, de cloisonner leur environnement, et de ne jamais leur donner d’accès direct au terminal sans validation humaine explicite.

Sur le même sujet

vibe coding sécurité
Faille de sécurité de l'app Tea

Le leak de Tea : les limites actuelles du Vibe coding

Le piratage de l'app Tea a mis en lumière un problème majeur : le recours excessif au code généré par IA sans contrôle humain rigoureux. Cette pratique, appelée vibe coding, favorise la rapidité au détriment de la sécurité. Retour sur cet incident et les leçons à en tirer pour les développeurs.

codex openai
L'IA Codex d'OpenAI : outsider ou futur standard ?

Codex, le point sur l'outsider des IA de développement

OpenAI a récemment lancé Codex, un agent d’assistance au développement intégré à l’écosystème GitHub. Moins médiatisé que GitHub Copilot ou Cursor, il intrigue par sa capacité à automatiser certains processus. Est-il pour autant un vrai game-changer ? État des lieux, entre promesses et limites.

vuejs angular
Vue Angular impraticables pour Agent ChatGPT

Pourquoi les sites en Vue.js ou Angular sont impraticables pour l’Agent ChatGPT

Les sites modernes développés avec Vue.js ou Angular sont puissants, dynamiques, mais souvent illisibles pour l’Agent ChatGPT. Ce dernier ne peut pas exécuter de JavaScript. Résultat : sans rendu côté serveur, ces pages semblent vides. Dans cet article, on explique pourquoi, et comment adapter vos frameworks pour redevenir accessibles.

prompt injection hacking
Prompt injection, une faille inquiétante dans l'IA

Les "prompt injection" : l'avenir du piratage des intelligences artificielles ?

Les prompt injection intriguent autant qu'elles inquiètent. Ces attaques visent à manipuler le comportement des intelligences artificielles en détournant leurs consignes initiales. Un terrain de jeu fascinant pour les hackers, mais aussi une véritable menace pour la cybersécurité.

openAI fuite
Document ChatGPT H1 2025 : vrai mais pas une fuite

Oui, "ChatGPT : H1 2025 Strategy" est un vrai document, mais pas un leak

Un document intitulé « ChatGPT : H1 2025 Strategy » circule massivement sur les réseaux sociaux. Présenté comme une fuite explosive d’OpenAI, il semble dévoiler un plan ambitieux pour transformer ChatGPT en super‑assistant capable de tout faire et de dominer le marché de l’IA.

captcha sécurité
CAPTCHA et IA

Pourquoi les CAPTCHA ne protègent plus contre les bots IA

Les CAPTCHA classiques (images déformées, sélections de feux rouges, etc.) ne suffisent plus face aux bots IA modernes. Voici pourquoi et quelles solutions émergent pour les remplacer.