Le Danemark veut protéger les citoyens contre les deepfakes

Loi anti-deepfake : le Danemark prend les devants face à l’IA

Le Danemark veut donner à chacun un droit de propriété sur son propre visage et sa voix. Une manière inédite de lutter contre les deepfakes, ces contenus créés par intelligence artificielle qui manipulent l'image et le son d'une personne sans son consentement.

Un droit d'auteur sur votre apparence ?

La nouvelle loi proposée par le gouvernement danois veut accorder à chaque citoyen un droit de propriété sur sa biométrie : visage, voix, expressions faciales. Inspiré du droit d'auteur, ce cadre juridique permettrait de retirer un contenu deepfake sans passer par un procès long et coûteux.

Pourquoi le Danemark agit maintenant

L'explosion des contenus générés par IA inquiète les autorités. De plus en plus de personnes se retrouvent victimes de clones numériques : dans des faux discours, des publicités truquées ou même dans des contenus pornographiques non consentis. En prévision de sa présidence du Conseil de l'UE, le Danemark veut créer un précédent. Cette initiative s'inscrit dans un contexte plus large de régulation européenne, avec des références croisées au Digital Services Act et au futur AI Act.

Une loi ambitieuse, mais difficile à appliquer

Sur le papier, l'initiative est saluée. Mais faire supprimer une vidéo sur un site hébergé hors d'Europe reste très complexe. Les plateformes de streaming, de médias sociaux ou les sites pornographiques installés dans des pays peu coopératifs sont souvent hors de portée. L'efficacité de cette loi reposera donc en grande partie sur la bonne volonté des plateformes majeures, et leur capacité à collaborer activement avec les autorités.

Un effet réel contre les abus

Pour les contenus publiés sur YouTube, TikTok ou Instagram, la loi pourrait avoir un effet immédiat. Le lien direct entre utilisateur, identité biométrique et publication facilite les retraits. C'est aussi un moyen de protection contre le harcèlement et les usurpations.

Et les contenus pornographiques ?

Les deepfakes à caractère sexuel sont parmi les plus répandus et les plus destructeurs. Pourtant, les sites qui les diffusent sont souvent hébergés hors Europe, dans des juridictions où aucune coopération n'est possible. Le texte danois pourrait tout de même servir de base pour des actions en justice internationales ou des blocages DNS via les fournisseurs d'accès.

Conclusion : un cadre pionnier, mais encore fragile

Le Danemark propose une loi ambitieuse qui pourrait redéfinir la protection de l’identité numérique en Europe. En donnant aux citoyens un droit de propriété sur leur visage et leur voix, il s’agit de mieux lutter contre les dérives des deepfakes, tout en posant un cadre juridique clair face à une technologie en pleine expansion.
Mais ce texte, aussi innovant soit-il, ne suffira pas à lui seul à stopper les abus. Son efficacité dépendra fortement de la coopération des plateformes, de la capacité à détecter rapidement les contenus litigieux, et surtout d’une coordination internationale. Il marque toutefois une première étape concrète vers un Internet plus éthique — où chacun pourrait enfin garder le contrôle de son image.


Qu'est-ce que la loi danoise sur les deepfakes ?

Elle propose de donner à chaque citoyen un droit de propriété sur son apparence et sa voix, afin de pouvoir demander le retrait de contenus deepfake sans démarches lourdes.

Est-ce qu'une loi contre les deepfake peut vraiment être efficace ?

Elle pourrait être utile sur les grandes plateformes, mais son application sera difficile face à des sites hébergés hors d'Europe.

L'Europe prévoit elle une loi contre les deepfakes ?

Le Danemark espère inspirer une réglementation à l'échelle européenne, en lien avec le Digital Services Act et le futur AI Act.

Sur le même sujet

pornographie usurpation
Les deepfake pornographiques, réalité dangereuse

Deepfake de contenu pornographique : quels risques ?

Les deepfakes, ces vidéos truquées générées par l’intelligence artificielle, se multiplient à grande vitesse. S’ils peuvent être spectaculaires dans les films ou les jeux vidéo, leur détournement à des fins sexuelles soulève de graves questions éthiques, légales et psychologiques.

revenge porn Noelle Martin
Le cas des deepfake sexuels de Noelle Martin

Deepfakes et revenge porn : le combat de Noelle Martin contre les abus de l’IA

Les deepfakes ne sont pas qu’un sujet technique ou amusant. Dans certains cas, ils deviennent des armes numériques. Le témoignage de Noelle Martin illustre les dérives les plus sombres de l’intelligence artificielle lorsqu’elle est utilisée pour créer du contenu pornographique non consenti.

AI Act Europe
Loi européenne sur l’IA : vers un cadre international ?

Loi européenne sur l’IA : un premier pas vers un droit international ?

L’adoption de l’AI Act par l’Union européenne marque une étape majeure dans la régulation des systèmes d’intelligence artificielle. Mais cette loi pourrait-elle devenir un modèle mondial et amorcer un véritable droit international de l’IA ?

manipulation vidéo création numérique
La création de Deepfake est-elle facile ?

Est-il facile de créer un deepfake ?

Les deepfakes ont envahi les réseaux sociaux et les médias. Certains les utilisent à des fins artistiques ou humoristiques, d'autres à des fins malveillantes. Mais peut-on vraiment en créer un aussi facilement qu'on le dit ?

youtube monétisation
YouTube et l'avenir des vidéos générées par IA

YouTube démonétise les vidéos créées par IA : progrès ou pure hypocrisie ?

YouTube a récemment déclenché une vive polémique en annonçant la démonétisation des vidéos dites « Full IA ». Une décision qui soulève autant de questions qu’elle n’en résout : véritable prise de conscience ou mesure opportuniste ?

veo3 google
Vidéos racistes générées par l'IA Veo 3 inondant TikTok

Veo 3 : l'IA de Google à l'origine d'une vague de contenus racistes sur TikTok

Veo 3, la dernière innovation de Google en matière de génération vidéo par IA, se retrouve au cœur d'une controverse mondiale suite à la prolifération de vidéos à caractère raciste sur TikTok. Ces contenus synthétiques, parfois visionnés des millions de fois, exploitent des stéréotypes visuels profondément discriminatoires et offensants. Malgré les mesures de protection annoncées par les deux géants technologiques, les systèmes de modération de TikTok et de Google semblent totalement dépassés face à l'ampleur du phénomène.