Des hommes vendent des cours pour créer du porno IA avec tes photos

Pourquoi ça compte pour toi
C'est pas juste un problème technique : c'est une machine à victimes. Des femmes ordinaires — 9 000 abonnés sur Instagram, rien de particulier — se retrouvent avec des faux nus générés par IA en circulation, utilisés comme publicités pour vendre des tutoriels à d'autres prédateurs. Le pire ? Les plaintes pourraient suffire, mais Instagram n'efface rien parce que techniquement, les images ne violent pas ses règles.
Ce qu'il faut retenir
- 1.Trois hommes de Phoenix enseignaient comment aspirer les photos Instagram de femmes et les transformer en contenu sexuel IA
- 2.Ils gagnaient 50 000€/mois en vendant les cours à 25€/mois sur des plateformes comme Whop
- 3.8 000 abonnés à CreatorCore ont généré 500 000 images/vidéos de femmes fictives basées sur de vraies photos
- 4.Les victimes ne peuvent pas obtenir que le contenu soit retiré car les images IA ne violent pas techniquement les règles sur l'usurpation d'identité
Ce qui s'est passé
MG, une fille de Scottsdale en Arizona qui faisait juste vivre sa vie normale, a reçu un message : des vidéos d'elle existaient sur Instagram. Sauf que ce n'était pas elle. C'était un deepfake porno basé sur ses photos Instagram.
Le truc ignoble : ces faux nus servaient de publicité pour AI ModelForge, une plateforme où trois mecs — Jackson Webb, Lucas Webb et Beau Schultz — vendaient des tutoriels pour générer tes propres faux influenceurs IA.
Pour 25€/mois sur Whop, tu apprenais à :
- ▸Aspirer les photos de femmes sur Instagram
- ▸Les injecter dans CreatorCore (un logiciel IA)
- ▸Générer des vidéos et photos sexuellement explicites
- ▸Les vendre sur Fanvue
Pourquoi c'est pire que tu le penses
Ces trois mecs ne faisaient pas juste du porno IA. Ils vendaient la méthode pour créer des victimes. Dans les tutoriels, ils expliquaient : vise les femmes avec moins de 50 000 abonnés (moins de risque légal), cible celles qui ne peuvent pas se défendre.
Résultat : 8 000 abonnés, 500 000 images/vidéos générées, plus de 50 000€ en un mois.
MG et deux autres plaignantes poursuivent en justice. Mais voilà le piège juridique : les images IA ne ressemblent pas exactement à leurs photos originales (tenues légèrement différentes, corps modifié). Donc Instagram refuse de les retirer. Ce n'est pas techniquement de l'usurpation d'identité. Et même si c'était du vrai porno non-consenti, la loi fédérale américaine (Take It Down Act) n'entre en vigueur qu'en mai 2026.
Ce qui change
L'Arizona a des lois contre les deepfakes pornographiques, mais elles réagissent après coup. Le représentant Nick Kupper propose des détections automatiques (vérification d'âge, formulaires de consentement) pour bloquer la diffusion avant mise en ligne.
Mais entre-temps ? Les comptes AI ModelForge se sont simplement renommés TaviraLabs sur Telegram (18 000 membres), continuent à poster les mêmes images, avec les mêmes légendes ("elle n'est pas ma copine, c'est mon employée la mieux payée").
Instagram dit avoir "des politiques extrêmement strictes". Mais les images restent.
Source
Pour aller plus loin
Cet article t'a donné envie d'approfondir ? Deux formations Noésis t'attendent :
Explorer les thèmes de cet article :