L'arnaque du faux Brad Pitt

L’histoire d’Anne et du faux Brad Pitt : quand l’arnaque prend un visage célèbre

Anne pensait vivre un conte de fées. Elle a en réalité été piégée par une arnaque sophistiquée, où l’intelligence artificielle et les réseaux sociaux ont permis à un escroc d’incarner Brad Pitt. Cette histoire vraie révèle les nouveaux visages de la cybercriminalité émotionnelle.

Une rencontre improbable

Tout commence sur les réseaux sociaux. Anne, retraitée française, reçoit un message privé d’un compte certifié au nom de Brad Pitt. L’homme est charmant, attentionné, et semble réellement s’intéresser à elle. Difficile d’imaginer une arnaque : la photo de profil est authentique, les échanges sont bien écrits, et l’interlocuteur se montre patient et flatteur.

Une manipulation bien rodée

Peu à peu, la relation prend une tournure plus intime. Le faux Brad confie être pris dans une affaire judiciaire complexe et demande de l’aide. Il évoque des frais d’avocat, des comptes bloqués, des déplacements impossibles. Anne commence à envoyer de l’argent.

Le piège est progressif. Il repose sur une technique appelée love scam, qui joue sur les sentiments. Ici, l’usurpation va plus loin : les escrocs utilisent des montages photo et vidéo réalistes, parfois même des appels truqués grâce à des voix synthétiques imitant l’acteur.

Combien Anne a-t-elle perdu ?

Au total, Anne aurait versé près de 120 000 euros à son faux amoureux. Des virements espacés, justifiés à chaque fois par une nouvelle urgence. L’arnaque a duré plusieurs mois. Ce n’est que grâce à l’alerte d’un proche qu’elle finit par porter plainte.

Ce type de fraude est en forte hausse. L’association Pharos, qui surveille les dérives numériques, signale une multiplication des cas où des célébrités sont utilisées comme façade pour escroquer les victimes.

Pourquoi ça fonctionne ?

L’affaire d’Anne montre la puissance des arnaques affectives quand elles s’appuient sur l’IA. Les deepfakes et les voix synthétiques peuvent créer l’illusion d’un échange réel. Couplé à une narration convaincante et à des techniques d’ingénierie sociale, le piège devient redoutable.

Certaines victimes refusent longtemps de croire qu’il s’agissait d’une arnaque. L’impact émotionnel est fort. Les escrocs savent créer une dépendance affective.

Comment se protéger ?

Voici quelques bonnes pratiques pour éviter ce type d’arnaques :

- Vérifier l’identité sur plusieurs canaux
- Se méfier des demandes d’argent, même faibles
- Douter des relations trop rapides ou trop parfaites
- Utiliser des outils de vérification d’image (recherche inversée)
- Parler à des proches avant d’envoyer quoi que ce soit

En cas de doute, contactez des structures comme Info Escroqueries ou la plateforme Pharos.

Un phénomène mondial

Anne n’est pas seule. Des affaires similaires ont été signalées aux États-Unis, en Allemagne, au Japon. Des célébrités comme Keanu Reeves ou Elon Musk ont également été utilisées à leur insu.

Les arnaques sentimentales liées à l’usurpation d’image sont aujourd’hui parmi les escroqueries les plus lucratives en ligne.


Comment reconnaître une arnaque sentimentale en ligne ?

Soyez attentif aux demandes d’argent, aux histoires invraisemblables, et aux profils trop parfaits. Un doute ? Faites une recherche d’image ou parlez-en à un proche.

Brad Pitt est-il réellement impliqué dans cette affaire ?

Non. Le nom et l’image de l’acteur ont été usurpés. Il n’a aucun lien avec cette escroquerie, comme dans d'autres affaires similaires.

Que faire si on a été victime d’un faux profil ?

Conservez toutes les preuves, déposez plainte, signalez le compte sur la plateforme, et contactez les autorités compétentes comme Pharos ou Cybermalveillance.gouv.fr.

Sur le même sujet

phishing cybersécurité
Deepfake et phishing vidéo

Deepfake et phishing vidéo : le nouveau visage de l’arnaque numérique

Les escroqueries numériques ne cessent d’évoluer. Avec les deepfakes, une nouvelle ère s’ouvre : celle des arnaques vidéo hyperréalistes. Imitation de voix, visage copié, message crédible… La menace devient difficile à détecter, même pour un œil averti.

youtube monétisation
YouTube et l'avenir des vidéos générées par IA

YouTube démonétise les vidéos créées par IA : progrès ou pure hypocrisie ?

YouTube a récemment déclenché une vive polémique en annonçant la démonétisation des vidéos dites « Full IA ». Une décision qui soulève autant de questions qu’elle n’en résout : véritable prise de conscience ou mesure opportuniste ?

pornographie usurpation
Les deepfake pornographiques, réalité dangereuse

Deepfake de contenu pornographique : quels risques ?

Les deepfakes, ces vidéos truquées générées par l’intelligence artificielle, se multiplient à grande vitesse. S’ils peuvent être spectaculaires dans les films ou les jeux vidéo, leur détournement à des fins sexuelles soulève de graves questions éthiques, légales et psychologiques.

revenge porn Noelle Martin
Le cas des deepfake sexuels de Noelle Martin

Deepfakes et revenge porn : le combat de Noelle Martin contre les abus de l’IA

Les deepfakes ne sont pas qu’un sujet technique ou amusant. Dans certains cas, ils deviennent des armes numériques. Le témoignage de Noelle Martin illustre les dérives les plus sombres de l’intelligence artificielle lorsqu’elle est utilisée pour créer du contenu pornographique non consenti.

manipulation vidéo création numérique
La création de Deepfake est-elle facile ?

Est-il facile de créer un deepfake ?

Les deepfakes ont envahi les réseaux sociaux et les médias. Certains les utilisent à des fins artistiques ou humoristiques, d'autres à des fins malveillantes. Mais peut-on vraiment en créer un aussi facilement qu'on le dit ?

murder party scénario
Écrire une Murder Party grâce à l’IA

Comment écrire une Murder Party avec l'intelligence artificielle ?

Vous aimeriez organiser une Murder Party inoubliable, mais vous manquez d’idées ou de temps ? L’intelligence artificielle peut devenir votre alliée pour inventer des intrigues captivantes, des personnages hauts en couleur et même des énigmes ingénieuses.