Aller au contenu principal Skip to page footer

Deepfakes pornographiques : l’IA industrialise la violence sexuelle contre les femmes et les enfants

Les deepfakes pornographiques sont devenus l’un des usages les plus préoccupants de l’intelligence artificielle : ils industrialisent à grande échelle l’humiliation, le harcèlement et le chantage sexuel, en visant d’abord les femmes et les enfants. En 2025–2026, au moins 1,2 million d’enfants dans 11 pays ont déclaré avoir vu leur image détournée en deepfake sexuel, tandis que certains outils d’IA intégrés à des réseaux sociaux ont produit, en quelques jours, plusieurs millions d’images sexualisées. Au‑delà des drames individuels, ces hypertrucages alimentent la désinformation, banalisent la violence sexuelle et sapent la confiance dans l’information.

En quelques secondes, une photo de classe ou un selfie posté sur un réseau social peut être transformé en image sexuelle hyperréaliste, partagée à l’infini, sans que la victime n’ait jamais posé, ni consenti.

Définition, mécanismes, risques juridiques et bonnes pratiques : comprendre ce phénomène est devenu essentiel pour prévenir et protéger.

Qu’est-ce qu’un deepfake (hypertrucage) ?

 

Selon le règlement européen sur l’intelligence artificielle (UE) 2024/1689, l’hypertrucage est défini comme : 
« une image ou un contenu audio ou vidéo généré ou manipulé par l’IA, présentant une ressemblance avec des personnes, des objets, des lieux, des entités ou événements existants et pouvant être perçu à tort comme authentique ».

Concrètement, nos photos, nos vidéos et même nos messages audio envoyés à des amis ou publiés sur les réseaux sociaux peuvent être volés puis détournés. C’est le principe de l’hypertrucage : se servir de nos contenus, avant de les modifier grâce à l’intelligence artificielle, pour les retourner contre nous.

Leurs créateurs sont capables, par exemple, « de remplacer un visage sur une photo, de changer les propos tenus par une personnalité, voire même d’ajouter des éléments dans une vidéo », explique Félicien Vallet, chef du service IA de la CNIL, la Commission nationale de l’informatique et des libertés.

L’objectif peut être de faire le buzz pour générer des revenus, d’arnaquer, d’humilier ou de manipuler l’opinion. Dans certains cas, les conséquences dépassent largement la sphère individuelle : désinformation et manipulation médiatique, fragilisation de la confiance dans l’information et même déstabilisation démocratique.

Pour les victimes, l’impact peut être extrêmement grave, avec des situations de harcèlement, de chantage ou de détresse psychologique pouvant aller jusqu’au passage à l’acte, notamment chez les plus jeunes.


Deepfake et pornographie : les enfants en première ligne

 

La publication d’images d’enfants (photos de famille, profils scolaires, activités…) alimente largement ces outils capables de produire des contenus truqués, y compris à caractère sexuel.

Selon une étude menée par l’UNICEF et ses partenaires dans 11 pays, au moins 1,2 million d’enfants ont déclaré que leur image avait été manipulée en deepfake sexuel en un an, soit, dans certains pays, l’équivalent d’un élève par classe. L’UNICEF rappelle que « deepfake abuse is abuse » : même si l’image est artificielle, les préjudices psychologiques, sociaux et réputationnels sont bien réels et durables.

Le phénomène de sharenting (publication d’images d’enfants par leurs proches), toujours très répandu malgré les alertes depuis plusieurs années, n’est plus un simple risque abstrait. Chaque photo d’enfant publiée alimente un gisement d’images que des outils de « nudification » peuvent transformer en pseudo‑nus hyperréalistes, sans que l’enfant ni ses parents ne puissent reprendre le contrôle.

Sur ce sujet, nous vous invitons à revoir ces campagnes chocs de la CNIL irlandaise ou de l’association Caméléon (« Les prédateurs sexuels vous disent merci »), qui sensibilisent les parents aux risques liés au partage d’images d’enfants en ligne.


Hypertrucages sexuels : un phénomène touchant majoritairement les femmes

 

Si la presse met souvent en avant les risques de déstabilisation des démocraties via des images truquées, il faut rappeler que 96% des deepfakes ont un contenu pornographique et que 90% concernent des femmes¹ et des adolescentes. 

Ces montages utilisent des photos publiques pour créer des scènes sexuelles sans consentement. Les victimes peuvent être des célébrités, des responsables politiques, mais aussi des anonymes : collégiennes, étudiantes, salariées… victimes de cyberharcèlement sexuel ou de revenge porn (diffusion de contenus intimes sans consentement).

Des affaires récentes impliquant des outils d’IA intégrés à des réseaux sociaux ont montré la production massive d’images sexualisées de femmes et de mineures en quelques jours, entraînant des enquêtes et perquisitions dans les locaux du réseau social X. Selon les estimations du Center for Countering Digital Hate, l’outil Grok aurait ainsi généré environ 3 millions de photos sexualisant des femmes et des enfants à la demande d’utilisateurs, en seulement 11 jours.

L’intégration directe de générateurs d’images dans les réseaux sociaux change d’échelle : la violence sexuelle n’est plus seulement le fait de quelques individus isolés, mais le sous-produit d’architectures techniques capables de produire des millions d’images en quelques clics.


Deepfakes : comment reconnaître un contenu généré par IA ? Les signes d’alerte


Les deepfakes deviennent de plus en plus réalistes, mais ils laissent encore souvent des traces. Apprendre à repérer ces indices permet de garder un esprit critique face aux contenus circulant en ligne et d’éviter de relayer des manipulations.

Signes visuels :
● positionnement étrange du visage 
● mains ou doigts déformés 
● expressions rigides ou incohérentes 
● clignement des yeux irrégulier 
● couleurs ou éclairages incohérents 

Vidéo / audio :
● mouvements non naturels 
● décalage lèvres-voix 
● son artificiel ou mal synchronisé 

Texte / messages :
● fautes inhabituelles 
● phrases maladroites 
● ton ou style incohérent 
● adresse ou expéditeur suspect 

Dans tous les cas : vérifier la source, rechercher l’origine de l’image ou de la vidéo, croiser avec des médias fiables et ne pas partager un contenu en cas de doute, y compris en privé.
 

Quels sont les risques juridiques et pénaux liés aux deepfakes ?
 

En France, les diffuseurs de deepfakes sont déjà punis par la loi. La diffusion de montages réalisés avec l’image ou les paroles d’une personne sans son consentement est punie d’un an d’emprisonnement et de 15 000 € d’amende (article 226-8 du code pénal), avec des peines aggravées en cas de caractère sexuel ou de diffusion en ligne.

Cette base nationale s’articule désormais avec le règlement européen sur l’intelligence artificielle (UE) 2024/1689, qui impose une obligation de transparence pour les contenus générés ou manipulés par IA, notamment les hypertrucages susceptibles d’être perçus comme authentiques. Au niveau international, l’UNICEF appelle les États à criminaliser explicitement la création, la possession et la diffusion de contenus pédosexuels générés par IA, face à l’explosion des deepfakes sexuels impliquant des mineurs.

Une proposition de loi déposée le 24 novembre 2025 à l’Assemblée nationale vise à aller plus loin en incriminant explicitement la création d’un hypertrucage à caractère sexuel, en plus de sa diffusion, lorsqu’il est réalisé sans le consentement de la personne concernée. L’objectif est d’empêcher la production même de ces contenus, et non seulement leur circulation.

Pour rappel, les utilisations malveillantes de l’intelligence artificielle peuvent déjà relever de plusieurs infractions :

Cyberharcèlement : 2 ans d’emprisonnement et 30 000 € d’amende (article 222-33-2-2) – peines aggravées si la victime est mineure ou vulnérable. 
Escroquerie par usurpation d’identité : 5 ans d’emprisonnement et 375 000 € d’amende (article 313-1). 
● Contenus pédopornographiques, y compris générés par IA : 5 ans d’emprisonnement et 75 000 € d’amende (article 227-23). 
Désinformation ou manipulation : sanctions possibles selon la loi du 29 juillet 1881 et le code électoral. 
Atteinte au droit d’auteur (contrefaçon) : jusqu’à 3 ans d’emprisonnement et 300 000 € d’amende.
 

Comment se protéger des deepfakes ? Les bonnes pratiques essentielles


Face à ces technologies, la vigilance individuelle et la responsabilité collective sont essentielles. Se protéger des deepfakes, ce n’est pas seulement mieux configurer ses comptes : c’est aussi apprendre à ne pas alimenter, malgré soi, les bases d’images qui serviront aux hypertrucages.

Quelques réflexes numériques à adopter :

● limiter la diffusion publique de photos personnelles 
● maîtriser les paramètres de confidentialité et restreindre la visibilité des comptes sociaux 
● éviter de publier des images d’enfants identifiables 
● réfléchir avant de partager des contenus impliquant des tiers, même en stories ou groupes privés 
● activer la double authentification et renforcer la sécurité des comptes

Lorsqu’un deepfake problématique est détecté, il est important d’agir rapidement. Nous vous partageons ci-dessous les recommandations de la CNIL :

● Utilisez d’abord les outils de signalement des plateformes pour contenus trompeurs ou abusifs. 
● Si vous estimez que l’hypertrucage a été utilisé dans le but de commettre un délit ou de porter atteinte à votre réputation, conservez des preuves (captures d’écran, liens) et, si nécessaire, déposez une plainte auprès de la police nationale ou d’une brigade de gendarmerie. 
● Pour signaler des contenus illicites et graves sur Internet (harcèlement, menaces, images sexuelles de mineurs, escroqueries) : PHAROS
● En cas d’arnaque ou de cyberharcèlement, plusieurs guichets sont disponibles pour vous aider (signalement, dépôt de plainte, aide aux victimes, etc.). Vous trouverez des informations à ce sujet, notamment dans l’application de la CNIL FantomApp.


Sensibiliser aux deepfakes : l’approche de Data Ring


Au-delà des sanctions, chez Data Ring nous sommes convaincus que la protection passe par l’éducation au numérique : comprendre les risques, apprendre à vérifier et développer l’esprit critique.

Chez Data Ring, nous faisons l’hypothèse que la meilleure protection contre les deepfakes n’est pas la peur, mais la compétence : savoir comment les images sont détournées, quelles traces nous laissons en ligne et comment réagir dès les premiers signaux d’abus. C’est le sens de nos guides pratiques, conçus pour être discutés en famille, en classe ou en entreprise.

● Le Guide des réseaux sociaux : un guide personnalisable pour une utilisation responsable des réseaux sociaux. 
● Le Guide « IA et enfants : 10 réflexes à avoir » : un guide pour accompagner les familles à l’ère de l’intelligence artificielle, avec des scénarios concrets (photo de soirée, défi en ligne, partage entre élèves) et des fiches réflexes « Que faire si un deepfake me vise ? ».

Informer, dialoguer et outiller les publics reste la meilleure défense face à des technologies capables de manipuler images, voix et vidéos avec un réalisme inédit. Elles exposent chacun à des risques réels, avec un impact particulièrement fort sur les enfants et les femmes.
 

Deepfakes : transformer la peur en compétence


Les deepfakes ne sont pas de simples « faux » spectaculaires : ce sont des outils industriels de violence sexuelle, qui frappent d’abord les femmes et les enfants. Le droit commence à rattraper cette réalité, en France, en Europe et à l’échelle internationale, mais il ne suffira jamais sans une montée en compétence numérique de tous les publics.

Faire reculer ces hypertrucages, c’est apprendre à moins nourrir les algorithmes, à mieux reconnaître les manipulations et à réagir vite en cas d’abus : c’est précisément l’ambition des ressources pédagogiques développées par Data Ring, pour que chaque famille, chaque jeune, puisse reprendre du pouvoir sur ses images et sa réputation. 

Dans un monde où l’IA peut vous déshabiller en quelques clics, transformer la peur en compétence doit devenir une nouvelle norme d’hygiène numérique pour toutes et tous.

 

¹https://itsocial.fr/contenus/actualites/deepfake-96-dorigine-pornographique-femmes-principales-victimes/