Quand les outils d'IA déshabillent: nudifiers, deepnude
Depuis quelques années, une nouvelle catégorie d'outils d'intelligence artificielle s'est développée dans les recoins les plus sombres d'internet avant de proliférer bien au-delà : les "nudifiers" ou "deepnude". Ces logiciels et applications sont capables, à partir d'une simple photographie d'une personne habillée, de générer une image réaliste de cette même personne nue — ou supposément nue.
Une réalité numérique aux conséquences bien concrètes
L'IA analyse la morphologie visible du sujet (silhouette, carnation, proportions) et "invente" ce que les vêtements dissimulent, produisant un résultat qui peut tromper un regard non averti.
Il ne s'agit pas de science-fiction. Nous en parlions déjà dans notre article de septembre 2023 "Les générateurs de nus et leur dangers". Aujourd'hui, ces outils sont accessibles à n'importe qui, parfois gratuitement, sans compétences techniques particulières. Une photo publiée sur un réseau social suffit. La cible n'a aucun moyen de savoir que cette opération a été réalisée sur son image.
Le droit à l'image mis à nu
Les images générées par des nudifiers violent ce principe de manière frontale et radicale.
Plusieurs dimensions juridiques entrent en jeu simultanément.
Le droit à l'image stricto sensu car l'image d'une personne est détournée et transformée sans son accord, à des fins qui lui sont étrangères, voire hostiles.
Le droit à la dignité car représenter une personne nue sans son consentement constitue une atteinte à sa dignité, protégée notamment par la Déclaration universelle des droits de l'homme.
La protection des données personnelles car selon le RGPD, une photographie est une donnée personnelle. Son traitement — y compris par un algorithme — sans base légale est interdit sur le territoire européen.
Le droit pénal car au-delà du civil, plusieurs infractions pénales peuvent être caractérisées, comme nous allons le voir.
Le problème majeur est celui de l'effectivité de la loi face à des outils souvent hébergés hors juridiction européenne, sur des serveurs situés dans des pays où la réglementation est inexistante ou peu appliquée.
Des dangers aux multiples visages
Les risques liés à ces outils ne se limitent pas à une atteinte abstraite à la vie privée. Leurs conséquences sont documentées, mesurables, et parfois dévastatrices pour les victimes.
Le premier danger est psychologique. Découvrir qu'une image de soi — sexualisée, non consentie — circule sur internet provoque des traumatismes comparables à ceux des victimes de violences sexuelles réelles : anxiété, dépression, honte, sentiment de violation profonde de son intimité. Des études menées au Royaume-Uni et aux États-Unis auprès de victimes de revenge porn et de deepfakes intimes font état de séquelles durables, d'isolement social, voire d'idées suicidaires.
Le deuxième danger est social et professionnel. Une image compromettante, même fabriquée, peut détruire une réputation, ruiner une carrière, briser des relations familiales ou amoureuses — d'autant plus qu'il est extrêmement difficile de prouver rapidement qu'une image est une fabrication.
Le troisième danger est systémique. Ces outils ciblent massivement les femmes et les filles. Des études récentes montrent que plus de 90 % des victimes de deepfakes intimes non consentis sont des femmes, ce qui en fait un instrument de violence de genre à grande échelle.
Enfin, l'accessibilité croissante de ces outils — certains sont intégrés dans des applications mobiles ou des bots Telegram — démocratise un crime qui, il y a dix ans, nécessitait des compétences avancées en retouche d'image.
Actes délictueux déjà commis : un état des lieux accablant
Les faits divers impliquant ces outils se multiplient à un rythme alarmant à travers le monde. Voici un panorama non exhaustif des infractions déjà documentées et jugées.
Harcèlement scolaire et cyberharcèlement
Plusieurs affaires ont éclaté dans des établissements scolaires, notamment en Espagne (affaire d'Almendralejo, 2023), aux États-Unis et en France, où des adolescents — principalement des garçons — ont utilisé des nudifiers pour générer des images de leurs camarades de classe féminines, puis les ont diffusées dans des groupes WhatsApp ou Snapchat. Dans l'affaire espagnole, une vingtaine de collégiennes ont été victimes de photos générées par IA, certaines utilisées à des fins d'extorsion.
Sextorsion
Des individus ont utilisé des images générées par nudifier pour faire chanter leurs victimes, menaçant de diffuser les fausses images compromettantes si une rançon (financière ou sexuelle) n'était pas versée. Des cas ont été documentés aux États-Unis, en Australie et en Europe, avec des victimes allant de mineures à des adultes.
Revenge porn augmenté par l'IA
Des ex-partenaires, refusant d'accepter une rupture, ont eu recours à ces outils pour créer des images intimes fictives et les diffuser sur des sites spécialisés dans les contenus non consentis, combinant ainsi le revenge porn classique avec la puissance de l'IA générative.
Usurpation d'identité à caractère sexuel
Des faux profils sur des sites de rencontres ou des plateformes pour adultes ont été alimentés avec des images générées par IA à partir de photos volées sur les réseaux sociaux de personnes réelles, à leur insu total.
Ciblage de personnalités publiques
Des journalistes, des élues, des militantes et des célébrités ont été ciblées par des campagnes organisées visant à les discréditer ou à les intimider via la diffusion massive de deepfakes intimes. La chanteuse Taylor Swift a été victime en janvier 2024 d'une opération de ce type, avec des images vues des millions de fois avant leur suppression.
Production et diffusion de contenus pédopornographiques
Cas particulièrement grave, des images d'enfants réels ont été utilisées comme base pour générer des contenus à caractère pédopornographique. Plusieurs arrestations ont eu lieu à ce titre en Europe et aux États-Unis, et ce type d'usage est universellement considéré comme l'une des manifestations les plus criminelles de cette technologie.
Cet article est destiné à informer et sensibiliser. Il ne contient aucun lien vers les outils évoqués et ne fournit aucune information permettant d'y accéder
Crimes et délits futurs : un horizon préoccupant
Si les usages criminels actuels sont déjà alarmants, ils ne constituent vraisemblablement que la partie émergée de l'iceberg. L'amélioration continue de ces technologies et leur accessibilité croissante ouvrent la voie à des dérives encore plus graves.
La manipulation politique et électorale représente une menace sérieuse.
Des deepfakes intimes de candidates, d'élues ou de militantes politiques pourraient être produits et diffusés massivement à quelques jours d'une élection, dans le but de les discréditer et d'influencer le scrutin. L'impact d'une telle opération serait potentiellement dévastateur, et le temps nécessaire pour en démontrer le caractère factice largement supérieur au cycle médiatique.
Le chantage institutionnel et l'espionnage constituent un autre vecteur d'inquiétude
Des acteurs malveillants — étatiques ou non — pourraient utiliser ces outils pour faire pression sur des fonctionnaires, des militaires, des magistrats ou des dirigeants d'entreprise, en menaçant de diffuser des images compromettantes fabriquées si ces personnes ne coopèrent pas ou ne livrent pas des informations sensibles.
La discrimination à l'embauche et le sabotage professionnel pourraient également s'appuyer sur ces technologies. Un concurrent, un collègue malveillant ou un employeur peu scrupuleux pourrait faire circuler des images générées par IA pour écarter un candidat, forcer une démission ou justifier un licenciement.
L'industrialisation du harcèlement de masse est une évolution déjà amorcée
Des communautés en ligne hostiles — forums d'extrême droite, groupes misogynes, réseaux de harcèlement organisé — pourraient automatiser la production de ces images pour cibler des militantes, des journalistes ou de simples particulières à grande échelle, rendant toute réponse individuelle ou judiciaire quasiment impossible.
Le contournement des systèmes de vérification d'identité est une piste explorée par des cybercriminels : en croisant les nudifiers avec d'autres outils de génération d'images synthétiques, il serait possible de créer des identités fictives crédibles destinées à des fraudes documentaires ou financières sophistiquées.
Enfin, l'émergence de marchés noirs spécialisés — plateformes proposant des images générées à la demande à partir de photos fournies par des clients — est déjà une réalité documentée, et leur sophistication ne peut qu'augmenter avec les progrès de l'IA.
Se protéger : précautions individuelles et collectives
Face à des outils dont la puissance croît plus vite que les dispositifs législatifs et techniques censés les encadrer, la protection repose sur une combinaison de comportements préventifs, de réflexes en cas d'incident et de mobilisation collective.
En amont : limiter sa surface d'exposition
La précaution la plus efficace reste de contrôler ce que l'on publie en ligne. Cela ne signifie pas renoncer à toute présence numérique, mais adopter quelques réflexes : paramétrer ses comptes de réseaux sociaux en mode privé plutôt que public, éviter de publier des photos où la morphologie est clairement visible sous des vêtements ajustés, et être attentif aux photos publiées par des tiers en activant les options de validation avant identification sur les plateformes qui les proposent.
Il est également conseillé de faire des recherches régulières sur son propre nom via les moteurs d'images pour détecter une éventuelle utilisation non autorisée de ses photos, et d'utiliser des outils de surveillance de son identité numérique, dont certains sont gratuits.
Pour les personnes exposées — journalistes, militantes, personnalités publiques — des services spécialisés permettent une veille automatisée et des alertes en cas d'apparition de contenus problématiques.
En cas d'incident : réagir vite et méthodiquement
Si vous découvrez qu'une image de vous a été manipulée et diffusée, la rapidité de réaction est déterminante. La première étape consiste à documenter les preuves : captures d'écran horodatées, URL des pages concernées, identifiants des comptes diffuseurs — avant toute demande de suppression, car les contenus peuvent disparaître rapidement.
Il convient ensuite de signaler le contenu directement auprès des plateformes concernées. La plupart des grandes plateformes (Meta, Google, X, Reddit) disposent de procédures spécifiques pour les contenus intimes non consentis et sont légalement tenues d'agir rapidement dans de nombreux pays. En France, la plateforme Pharos (plateforme d'harmonisation, d'analyse, de recoupement et d'orientation des signalements) permet de signaler tout contenu illicite en ligne.
Il faut également déposer plainte auprès des autorités compétentes. En France, cela peut se faire en commissariat, en gendarmerie, ou directement en ligne via le portail dédié. L'infraction peut être qualifiée sous plusieurs chefs : atteinte à la vie privée, cyberharcèlement, diffusion d'images à caractère sexuel sans consentement (délit depuis la loi du 3 août 2018), ou usurpation d'identité.
Se faire accompagner par une association spécialisée est fortement recommandé. En France, des structures comme l'association e-Enfance, Stop Fisha ou le Centre Hubertine Auclert offrent un soutien aux victimes de violences numériques, notamment dans les démarches de suppression et de dépôt de plainte.
Sur le plan collectif
La protection individuelle ne peut suffire face à un phénomène systémique. Plusieurs leviers collectifs sont nécessaires : un renforcement du cadre législatif européen pour imposer aux hébergeurs des obligations de détection proactive des contenus synthétiques non consentis, une coopération internationale accrue pour poursuivre les opérateurs de plateformes hébergées hors de l'Union européenne, et une intégration de ces enjeux dans les programmes d'éducation aux médias et au numérique dès le collège.
Fonctionnement technique : comment ces outils "voient" sous les vêtements
Comprendre le mécanisme de ces outils est essentiel pour en saisir à la fois les limites et la dangerosité. Contrairement à ce que l'on pourrait croire, ces logiciels ne "voient" pas réellement ce que dissimulent les vêtements : ils inventent un résultat plausible en se basant sur des statistiques extraites de millions d'images.
Les réseaux antagonistes génératifs (GAN)
La majorité des nudifiers reposent sur une architecture appelée GAN (Generative Adversarial Network, ou réseau antagoniste génératif), introduite par Ian Goodfellow en 2014. Un GAN est composé de deux réseaux de neurones qui s'affrontent : un générateur, qui produit des images synthétiques, et un discriminateur, qui tente de distinguer les images réelles des images fabriquées. Au fil de l'entraînement, le générateur apprend à produire des images de plus en plus convaincantes pour "tromper" le discriminateur. Le résultat final est un modèle capable de générer des images réalistes à partir d'une entrée donnée.
Dans le cas des nudifiers, le modèle a été entraîné sur des paires d'images : des photographies de personnes habillées associées à leurs équivalents dénudés. L'IA apprend ainsi à associer des patterns visuels (forme d'un bras, galbe d'une épaule, type de vêtement) à des représentations corporelles probables. Le résultat n'est jamais une "révélation" de ce qui se trouve réellement sous les vêtements, mais une reconstruction statistiquement plausible, souvent inexacte dans ses détails, mais suffisamment réaliste pour être utilisée à des fins malveillantes.
Les modèles de diffusion
Une technologie plus récente et plus puissante a progressivement supplanté les GAN dans les usages les plus sophistiqués : les modèles de diffusion (diffusion models), qui sous-tendent des outils comme Stable Diffusion. Ces modèles fonctionnent selon un principe inverse : ils apprennent à reconstruire une image claire à partir d'une image progressivement dégradée par l'ajout de bruit aléatoire. En inversant ce processus, ils sont capables de générer des images d'une qualité et d'un réalisme supérieurs aux GAN.
Appliqués aux nudifiers, ces modèles permettent non seulement de "déshabiller" une image, mais aussi de modifier des zones spécifiques d'une photographie via une technique appelée inpainting : l'utilisateur masque une zone de l'image (par exemple, la zone couverte par un vêtement), et le modèle génère un contenu plausible pour combler ce masque, en tenant compte du contexte visuel environnant.
Le pipeline de traitement
De manière simplifiée, le traitement d'une image par un nudifier suit plusieurs étapes. D'abord, une détection et segmentation : le modèle identifie et délimite les zones de l'image correspondant aux vêtements, à la peau visible, et à la silhouette générale du sujet. Ensuite, une estimation de la morphologie : à partir des éléments visibles (cou, mains, visage, silhouette), le modèle infère les proportions générales du corps. Puis vient la génération proprement dite : le modèle produit un contenu synthétique pour les zones masquées, en s'appuyant sur ses données d'entraînement. Enfin, un travail de fusion et de cohérence visuelle permet d'intégrer le contenu généré dans l'image originale de manière à minimiser les artefacts visibles.
La qualité du résultat dépend de nombreux facteurs : résolution de l'image source, angle de prise de vue, complexité des vêtements, diversité des données d'entraînement. Les résultats sont souvent imparfaits à l'examen attentif, mais suffisamment convaincants pour être utilisés à des fins de harcèlement ou de manipulation.
Les outils les plus connus : un écosystème préoccupant
Sans fournir de liens d'accès ni encourager leur utilisation, il est utile, dans une perspective d'information et de sensibilisation, de connaître les principaux outils de cette catégorie qui ont été documentés par des chercheurs, des journalistes et des autorités judiciaires.
DeepNude (2019) est l'outil fondateur de cette catégorie. Développé par un programmeur anonyme et diffusé brièvement en ligne, il a été retiré par son créateur quelques jours après sa publication virale, face au tollé provoqué. Son code source a néanmoins été divulgué et a servi de base à de nombreux dérivés.
Nudify.online, Undress.app et leurs équivalents sont des services web accessibles depuis un navigateur standard, sans installation, qui proposent une interface simplifiée permettant de téléverser une photo et d'obtenir une version générée en quelques secondes. Certains proposent un quota gratuit avant de passer à un abonnement payant. Leur prolifération est telle que de nouveaux services apparaissent régulièrement à mesure que d'autres sont fermés sous pression légale ou commerciale.
Les bots Telegram représentent un vecteur de diffusion particulièrement inquiétant en raison de leur facilité d'accès et de l'anonymat qu'offre la plateforme. Des bots entièrement automatisés permettent d'envoyer une photo dans une conversation privée et de recevoir en retour une image générée, sans aucune friction technique. Des enquêtes journalistiques ont documenté l'existence de dizaines de ces bots, certains comptant plusieurs centaines de milliers d'utilisateurs.
Stable Diffusion avec extensions spécialisées constitue le niveau le plus technique de cet écosystème. Ce modèle open source, qui peut être installé localement sur un ordinateur personnel, dispose d'une communauté de développeurs qui ont produit des extensions (notamment via la plateforme Civitai) et des modèles entraînés spécifiquement pour la génération de contenus explicites. L'exécution locale rend toute traçabilité quasi impossible et contourne les filtres de contenu des services en ligne.
Face Swap et outils hybrides : plusieurs applications initialement conçues pour des usages récréatifs (substitution de visage dans des vidéos ou des photos) ont été détournées pour produire des deepfakes intimes en combinant le visage d'une victime réelle avec un corps généré ou emprunté à un autre contenu.
Conclusion : une urgence éthique, juridique et technologique
Les outils d'IA capables de générer des images intimes non consenties ne sont pas une curiosité technologique marginale : ils constituent une menace documentée, en expansion rapide, qui touche des millions de personnes à travers le monde — principalement des femmes et des mineurs. Leur existence à l'intersection du droit à l'image, de la violence de genre, de la cybercriminalité et des libertés numériques exige une réponse qui soit à la hauteur de leur dangerosité.
Cette réponse ne peut être uniquement individuelle. Elle nécessite une mobilisation coordonnée des législateurs, des plateformes numériques, des éducateurs et de la société civile pour poser des garde-fous techniques, légaux et culturels face à une technologie qui, sans régulation, risque de normaliser une forme inédite de violence faite aux personnes.
Cet article est publié à des fins exclusivement éducatives et de sensibilisation. Il ne contient aucun lien vers les outils cités et ne fournit aucune information permettant d'y accéder directement.


