Deepfake et phishing vidéo

Deepfake et phishing vidéo : le nouveau visage de l’arnaque numérique

Les escroqueries numériques ne cessent d’évoluer. Avec les deepfakes, une nouvelle ère s’ouvre : celle des arnaques vidéo hyperréalistes. Imitation de voix, visage copié, message crédible… La menace devient difficile à détecter, même pour un œil averti.

Qu’est-ce qu’un phishing vidéo par deepfake ?

Le phishing vidéo par deepfake est une nouvelle forme d’arnaque numérique où l’on utilise l’intelligence artificielle pour créer une fausse vidéo réaliste : une personne connue (collègue, dirigeant, proche) semble parler directement à la victime pour lui demander un virement, des identifiants ou une action urgente.

Les techniques utilisées

Ces arnaques combinent plusieurs outils :

- des modèles de synthèse vocale capables d’imiter une voix à partir de quelques minutes d’audio,
- des deepfakes visuels pour animer un visage à partir d’une simple photo,
- une mise en scène crédible (fond Zoom, décor de bureau, tenue professionnelle…).

L’objectif est de créer un sentiment d’urgence et de confiance immédiat.

Des exemples concrets et récents

En mars 2024, un employé d’une grande entreprise à Hong Kong a transféré plus de 25 millions de dollars après avoir reçu un appel vidéo où plusieurs collègues – en réalité générés par IA – confirmaient la demande.

Dans un autre cas, une fausse vidéo d’un PDG demandant un virement urgent à un service comptable a été diffusée… avec le bon logo, le bon décor, et une voix parfaite.

Pourquoi est-ce si dangereux ?

Parce que l’humain croit ce qu’il voit. Une vidéo crédible est plus convaincante qu’un simple mail. Le deepfake agit comme une preuve visuelle artificielle, difficile à remettre en question, surtout dans un contexte professionnel ou émotionnel fort.

Comment s’en protéger ?

Voici quelques bonnes pratiques :

- Ne jamais exécuter une demande financière sur la seule base d’une vidéo ou d’un appel urgent.
- Mettre en place une double validation pour les virements (procédures internes, appels directs).
- Former les équipes à ces nouvelles formes de fraude.
- Utiliser des outils de détection de deepfakes dans les contextes sensibles.

Vers une réglementation nécessaire

Le cadre juridique est encore flou. Certains pays envisagent d’interdire certains usages des deepfakes, en particulier pour l’escroquerie. En parallèle, les plateformes (YouTube, LinkedIn, Zoom…) renforcent leurs règles de détection et de signalement.


Qu’est-ce qu’un deepfake utilisé pour du phishing vidéo ?

C’est une vidéo truquée, générée par IA, dans laquelle une personne semble parler à la victime pour lui demander une action (souvent financière), alors qu’il s’agit d’une arnaque.

Comment repérer un phishing vidéo ?

Regardez les mouvements du visage et les yeux. Vérifiez la demande par un autre canal. Soyez vigilant face à toute demande urgente inhabituelle par vidéo.

Que faire si je pense avoir été victime ?

Prévenez immédiatement votre service informatique ou votre banque. Portez plainte et conservez toute preuve de la tentative de fraude (vidéo, mails, enregistrements).

Sur le même sujet

arnaque usurpation
L'arnaque du faux Brad Pitt

L’histoire d’Anne et du faux Brad Pitt : quand l’arnaque prend un visage célèbre

Anne pensait vivre un conte de fées. Elle a en réalité été piégée par une arnaque sophistiquée, où l’intelligence artificielle et les réseaux sociaux ont permis à un escroc d’incarner Brad Pitt. Cette histoire vraie révèle les nouveaux visages de la cybercriminalité émotionnelle.

youtube monétisation
YouTube et l'avenir des vidéos générées par IA

YouTube démonétise les vidéos créées par IA : progrès ou pure hypocrisie ?

YouTube a récemment déclenché une vive polémique en annonçant la démonétisation des vidéos dites « Full IA ». Une décision qui soulève autant de questions qu’elle n’en résout : véritable prise de conscience ou mesure opportuniste ?

pornographie usurpation
Les deepfake pornographiques, réalité dangereuse

Deepfake de contenu pornographique : quels risques ?

Les deepfakes, ces vidéos truquées générées par l’intelligence artificielle, se multiplient à grande vitesse. S’ils peuvent être spectaculaires dans les films ou les jeux vidéo, leur détournement à des fins sexuelles soulève de graves questions éthiques, légales et psychologiques.

prompt injection hacking
Prompt injection, une faille inquiétante dans l'IA

Les "prompt injection" : l'avenir du piratage des intelligences artificielles ?

Les prompt injection intriguent autant qu'elles inquiètent. Ces attaques visent à manipuler le comportement des intelligences artificielles en détournant leurs consignes initiales. Un terrain de jeu fascinant pour les hackers, mais aussi une véritable menace pour la cybersécurité.

revenge porn Noelle Martin
Le cas des deepfake sexuels de Noelle Martin

Deepfakes et revenge porn : le combat de Noelle Martin contre les abus de l’IA

Les deepfakes ne sont pas qu’un sujet technique ou amusant. Dans certains cas, ils deviennent des armes numériques. Le témoignage de Noelle Martin illustre les dérives les plus sombres de l’intelligence artificielle lorsqu’elle est utilisée pour créer du contenu pornographique non consenti.

manipulation vidéo création numérique
La création de Deepfake est-elle facile ?

Est-il facile de créer un deepfake ?

Les deepfakes ont envahi les réseaux sociaux et les médias. Certains les utilisent à des fins artistiques ou humoristiques, d'autres à des fins malveillantes. Mais peut-on vraiment en créer un aussi facilement qu'on le dit ?