
Le leak de Tea : les limites actuelles du Vibe coding
Le piratage de l'app Tea a mis en lumière un problème majeur : le recours excessif au code généré par IA sans contrôle humain rigoureux. Cette pratique, appelée vibe coding, favorise la rapidité au détriment de la sécurité. Retour sur cet incident et les leçons à en tirer pour les développeurs.
Qu'est-ce que le vibe coding ?
Le vibe coding consiste à laisser une IA générer du code à partir d'instructions générales, sans nécessairement comprendre ou vérifier le résultat. Cette approche séduit par sa rapidité, mais expose à des erreurs graves. Dans le cas de Tea, un bucket de stockage Firebase était laissé public, rendant des milliers d'images accessibles sans authentification.
Comment la faille de Tea a été exploitée
Le piratage a été détecté le 25 juillet 2025, et concernait des contenus hébergés sur un ancien système de stockage. En effet, Tea avait modifié son infrastructure en février 2024, mais les images antérieures à cette date étaient encore accessibles via un bucket Firebase mal sécurisé. Résultat : près de 72 000 fichiers ont été exposés, dont 13 000 selfies et documents d’identité, ainsi que 59 000 images publiques issues des profils ou discussions.

Les dangers pour les applications IA
De nombreuses études montrent que 30 à 50 % du code généré par IA contient des vulnérabilités. Sans relecture, les failles peuvent être introduites dans des services web, des applications fintech ou santé. L'affaire Tea prouve qu'une simple erreur de configuration peut exposer des données sensibles.
Comment éviter ce type de fiasco
Quelques bonnes pratiques permettent de réduire drastiquement les risques liés au code généré par IA :
- Relire systématiquement le code produit par l’IA, pour vérifier la logique, les dépendances et les permissions accordées.
- Mettre en place des tests de sécurité automatisés (SAST, DAST, audits réguliers) afin de détecter les vulnérabilités avant la mise en production.
- Appliquer des règles strictes de gestion des accès et du stockage, notamment sur les buckets de fichiers, bases de données et API exposées.
- Former les développeurs aux risques spécifiques de l’IA générative, pour qu’ils identifient les erreurs courantes et sachent auditer efficacement le code proposé.
L’IA est un outil puissant pour accélérer le développement, mais chaque ligne de code qu’elle génère doit être considérée comme potentiellement imparfaite. Les équipes doivent donc intégrer des contrôles humains et des garde‑fous techniques. Le gain de temps ne doit jamais primer sur la sécurité : un seul oubli peut exposer des milliers d’utilisateurs et ruiner la confiance dans une application.
Sources
- NDTV – US-Based Women-Only App Tea Hacked
Article détaillant la faille de l’application Tea et l’ampleur de la fuite de données (72 000 photos exposées).
- Business Insider – Replit apologizes after AI tool deletes database
Exemple d’un autre incident lié à un outil de codage IA, où une base de données entière a été supprimée par erreur.
- Tom's Hardware – Amazon's AI coding assistant prompt injection
Analyse d’une attaque par injection de prompt contre l’assistant de codage IA d’Amazon.
- Wired – You're Not Ready for AI Hacker Agents
Article expliquant les risques émergents liés aux agents IA capables de coder et hacker de façon autonome.
Pourquoi parle-t-on de vibe coding dans le leak de l'application "Tea" ?
Parce que l'app a été largement construite avec du code généré par IA sans contrôle rigoureux, ce qui a conduit à une configuration publique non sécurisée et rendu le piratage possible.
Combien de données ont été exposées par le leak de l'application "Tea" ?
Environ 72 000 photos, dont 13 000 selfies et documents d'identité utilisés pour la vérification des comptes, principalement des américaines.
Les applications disponibles codées avec l'IA sont-elles à risque ?
Oui. De nombreuses applications construites rapidement avec l'IA sans audit de sécurité peuvent contenir des failles de sécurité importantes.
Comment réduire les risques liés au code généré par IA ?
Il faut revoir le code, mettre en place des tests de sécurité et auditer toute fonctionnalité sensible avant déploiement en production.