Deepfakes sexuels : une nouvelle menace qui touche les collégiennes et alerte les autorités

L’essor des deepfakes sexuels inquiète parents et enseignants. De plus en plus de collégiennes se retrouvent victimes de montages malveillants, souvent diffusés anonymement. Les autorités alertent sur cette menace en rapide expansion et appellent à renforcer la prévention et l’éducation au numérique.
deepfakes sexuels - Sexual Deepfakes

Les deepfakes sexuels, ces images ou vidéos entièrement générées ou modifiées par intelligence artificielle, ne sont plus seulement un danger théorique. Ils deviennent une forme bien réelle de cyberviolence, notamment contre les mineur(e)s. Récemment, une affaire impliquant une douzaine de collégiennes a mis en lumière l’ampleur du phénomène : leurs visages ont été utilisés pour créer des montages pornographiques réalistes, diffusés ensuite sur les réseaux sociaux par d’autres adolescents.

Cet épisode particulièrement grave montre comment l’accessibilité des outils d’IA transforme le paysage du harcèlement scolaire et du cyberharcèlement, et souligne l’urgence d’une réponse collective à la hauteur des enjeux.

Quand l’intelligence artificielle devient une arme entre adolescents

Les générateurs d’images basés sur l’IA sont aujourd’hui accessibles en quelques clics. De simples applications permettent d’intégrer un visage sur un corps dans des scènes réalistes, parfois pornographiques. Si ces technologies peuvent avoir des usages légitimes, elles deviennent extrêmement dangereuses lorsqu’elles sont détournées.

C’est exactement ce qui s’est produit dans cette affaire où des collégiennes se sont retrouvées impliquées à leur insu dans des montages à caractère sexuel créés par des camarades. Les images, bien que fictives, imitaient la réalité au point de tromper des élèves et de nuire gravement à la réputation et à la sécurité psychologique des victimes.

Derrière l’apparente “blague”, les conséquences sont lourdes : anxiété, honte, isolement, peur de retourner au collège… Pour des adolescentes, l’impact est immense.

Un signalement crucial : l’importance des dispositifs anti-harcèlement

Ce qui a permis à l’affaire d’être révélée rapidement tient en grande partie au courage des victimes et à l’existence d’un dispositif interne destiné à prévenir le harcèlement. Grâce à ce système de signalement, les élèves ont pu alerter les responsables rapidement, avant que la situation ne dégénère davantage.

Ce type d’outil s’avère essentiel dans un contexte où les images circulent à une vitesse fulgurante sur les réseaux sociaux. Sans une procédure claire et facilement accessible pour dénoncer les abus, de nombreuses victimes n’osent pas parler ou ne savent simplement pas vers qui se tourner.

Les établissements scolaires sont donc de plus en plus encouragés à mettre en place des mécanismes permettant aux élèves de signaler tout contenu humiliant, violent ou non consenti.

Douze victimes et une enquête ouverte : une prise de conscience institutionnelle

Dans cette affaire, les autorités ont confirmé l’ouverture d’une enquête. Des réquisitions ont été émises pour identifier le ou les auteurs des montages, ainsi que les personnes ayant participé à leur diffusion.

Un élément frappant est que certaines victimes n’étaient même pas scolarisées dans le même établissement que les mis en cause. Cela illustre une caractéristique inquiétante des deepfakes : les auteurs peuvent cibler n’importe qui, sans forcément avoir un lien direct avec la personne.

Les procureurs et forces de l’ordre sont désormais confrontés à un nouveau type de cybercrime, encore relativement récent mais en pleine croissance. Les enquêtes autour de deepfakes sexuels nécessitent des compétences techniques spécifiques, et le cadre légal doit encore s’adapter à ces nouvelles formes de violence numérique.

Des deepfakes sexuels en hausse : un phénomène sous-estimé

Les organismes de défense des droits humains et les associations alertent depuis plusieurs années sur la montée des deepfakes à caractère sexuel. Les victimes sont principalement des femmes, et de plus en plus souvent des mineures.

La Commission nationale consultative des droits de l’homme (CNCDH) a récemment souligné que la réponse des plateformes numériques et des pouvoirs publics reste insuffisante. Les réseaux sociaux ne disposent pas encore de systèmes pleinement efficaces pour détecter et supprimer ce type de montage, et les démarches de retrait sont souvent trop lentes.

Ce décalage entre la vitesse de diffusion et la vitesse de réaction constitue l’un des principaux défis.

Éduquer, prévenir, responsabiliser : une nécessité absolue

Face à ces dangers, une question majeure s’impose : comment protéger les adolescents dans un monde où l’IA permet de créer un contenu synthétique dangereux en quelques secondes ?

Plusieurs axes s’imposent :

  1. L’éducation au numérique

Les adolescents doivent comprendre :

  • ce qu’est l’IA et comment elle peut être détournée,
  • les risques juridiques encourus (création, diffusion, partage),
  • ce qu’est le consentement numérique,
  • l’impact concret d’une image, même fausse, sur une personne.
  1. Le rôle central des familles

Les parents doivent être accompagnés pour mieux dialoguer avec leurs enfants sur les pratiques en ligne, les applications utilisées et les comportements à risque.

  1. Le renforcement des dispositifs scolaires

Des outils comme les plateformes de signalement internes jouent un rôle clé. Leur mise en place doit être généralisée et renforcée.

  1. L’adaptation du cadre légal

Le droit doit continuer à évoluer pour sanctionner fermement les deepfakes non consentis, en particulier lorsqu’ils impliquent des mineurs.

Conclusion

L’affaire récente impliquant une douzaine de collégiennes montre que les deepfakes ne sont plus seulement un enjeu technologique : ils sont devenus un véritable enjeu de société.
La facilité avec laquelle les élèves ont pu détourner l’IA pour harceler et humilier leurs camarades doit alerter parents, enseignants, décideurs publics et plateformes numériques.

Protéger les jeunes face à ces nouvelles formes de violence exige une action coordonnée : éducation, prévention, vigilance et cadre légal clair.
L’IA ne doit pas devenir une arme entre les mains des adolescents — et cette responsabilité nous incombe à tous.

Lire plus ici.

Source externe : CNEWS

Partager:
Articles associés
salon HR Technologies 2025

Data for Ethic au salon HR Technologies 2025

Découvrez la participation de Data for Ethic au salon HR Technologies 2025 innovations engagement éthique et solutions technologiques pour un environnement de travail plus inclusif et sécurisé

Besoin d'une démo gratuite ou de plus d'infos sur nos logiciels ?
On vous rappelle pour en discuter !

Dataforethic s'engage à protéger et à respecter votre vie privée.
Aller au contenu principal