Des collégiens utilisent désormais l’IA pour créer de la pornographie hypertrucage de leurs camarades de classe
Des collégiens utilisent désormais l’IA pour créer de la pornographie hypertrucage de leurs camarades de classe
Un fait divers survenu récemment en Alabama devrait susciter beaucoup plus d’attention qu’il n’en a, car il donne un aperçu de ce que sera l’avenir. Des collégiens utilisent l’intelligence artificielle (IA) pour créer des images pornographiques de leurs camarades de classe féminines :
« Un groupe de mères de Demopolis affirme que les photos de leurs filles ont été utilisées avec une intelligence artificielle pour créer des images pornographiques de leurs filles. Tiffany Cannon, Elizabeth Smith, Holston Drinkard et Heidi Nettles ont déclaré avoir appris le 4 décembre que deux camarades de classe masculins de leurs filles avaient créé et partagé des photos explicites de celles-ci. Mme Smith a déclaré que, depuis lundi dernier, elles ont vécu des émotions en dents de scie.
“Elles ont peur, elles sont en colère, elles sont embarrassées. Elles se demandent vraiment pourquoi cela leur est arrivé”, a déclaré Mme Smith. Le groupe de mères a déclaré que la police de Demopolis menait une enquête active. Cependant, elles souhaitent que le district scolaire prenne des mesures. Elles estiment qu’il s’agit d’un cas de cyberintimidation et qu’il existe des lois et des politiques nationales pour protéger leurs filles.
“Nous avons mis en place des lois sur la sécurité à l’école et sur la prévention des intimidations à l’encontre des élèves, qui stipulent que les cyberintimidations ne seront pas tolérées, que ce soit sur le campus ou à l’extérieur”, a déclaré Mme Smith. “Il faut beaucoup de courage à ces jeunes filles pour se manifester, et elles l’ont fait. Elles doivent être soutenues pour cela. Pas seulement de la part de leurs parents, mais aussi de la part de leur école et de leur communauté”, a déclaré Mme Nettles.1 »
L’école n’a pas encore donné beaucoup de détails, et le surintendant des écoles de la ville de Demopolis, Tony Willis, a déclaré dans un communiqué qu’il n’y avait pas grand-chose à faire :
« L’école ne peut s’occuper que des choses qui se produisent lors d’événements scolaires, sur le campus de l’école et pendant les heures de cours. En dehors de cela, c’est l’affaire des parents et de la police. Nous compatissons avec les parents et ne voulons jamais que des actes répréhensibles restent sans conséquences. Nos cœurs et nos prières se joignent à toutes les familles touchées par cette affaire. C’est pourquoi nous avons aidé la police à chaque étape de ce processus. »
Nous verrons beaucoup plus de choses de ce genre dans les années à venir, car une génération nourrie à la pornographie dure est de plus en plus capable, grâce à la technologie, de créer des images de personnes qu’elle connaît personnellement. L’essor des sextos a rendu la pornographie personnelle. Les éducateurs et les forces de l’ordre sont toujours aux prises avec les moyens de freiner cette pratique presque omniprésente qui consiste à envoyer et à recevoir des images intimes, dont la plupart sont ensuite partagées avec d’autres personnes. Nombre de ces images, en raison de l’âge des élèves concernés, constituent de la pornographie enfantine. La pornographie générée par l’IA créera toute une liste d’autres problèmes inquiétants à traiter.
Un rapide coup d’œil aux récents titres des journaux vous donnera une idée de la direction que prend ce phénomène. Extrait de Fortune : « Les applications “Nudify” qui utilisent l’IA pour déshabiller les femmes sur les photos sont de plus en plus populaires, ce qui suscite des inquiétudes quant à la pornographie non consensuelle.2 » Ces applications permettent de « déshabiller numériquement » des personnes que l’on connaît et de créer ainsi une pornographie non consensuelle de jeunes filles et de femmes. Ces applications ont déjà conquis des millions d’utilisateurs.
Extrait de la MIT Technology Review : « Le scandale de la pornographie hypertrucage d’un lycée pousse les législateurs américains à agir.3 » Dans un lycée du New Jersey, des garçons ont utilisé l’IA pour « créer des photos sexuellement explicites, voire pornographiques, de certaines de leurs camarades de classe », et jusqu’à 30 filles ont été touchées. Le sentiment de violation ressenti par les victimes est profond.
Extrait de CNN : « Tollé en Espagne : l’intelligence artificielle est utilisée pour créer de fausses images de filles mineures nues4 ». Extrait de l’article :
« La police espagnole a ouvert une enquête après que des images de jeunes filles, modifiées à l’aide d’une intelligence artificielle pour enlever leurs vêtements, ont été envoyées dans une ville du sud du pays. Un groupe de mères d’Almendralejo, dans la région d’Estrémadure, a signalé que leurs filles avaient reçu des images d’elles-mêmes dans lesquelles elles apparaissaient nues. »
Une fille a été victime d’un chantage de la part d’un garçon avec une image d’elle trafiquée. Une autre a crié à sa mère : « Qu’est-ce qu’ils m’ont fait? »
Le Washington Post : « Les faux nus de l’IA sont en plein essor. Ils ruinent la vie de vrais adolescents.5 » Extrait de l’article :
« L’intelligence artificielle alimente cette année une explosion sans précédent de fausses images et vidéos pornographiques. Cela est rendu possible par la multiplication d’outils d’intelligence artificielle bon marché et faciles à utiliser, capables de “déshabiller” des personnes sur des photographies en analysant l’aspect que pourrait avoir leur corps nu et en l’imposant à l’image ou en échangeant un visage dans une vidéo pornographique. »
Il ne s’agit là que de quelques exemples parmi des dizaines d’articles parus ces derniers mois. La crise de la pornographie est encore exacerbée par l’IA, ce qui met une fois de plus en évidence la triste vérité d’une blague dans les milieux technologiques : d’abord nous créons une nouvelle technologie, ensuite nous trouvons une manière de regarder du porno dessus. L’industrie pornographique a ruiné un nombre incalculable de vies. L’IA pornographique fait passer ce phénomène à la vitesse supérieure. Nous devrions nous y préparer.
Notes
1. Gillian Brooks, « Demopolis middle school students use AI to create pornographic images of female classmates » [Des élèves d’un collège de Demopolis utilisent l’IA pour créer des images pornographiques de leurs camarades de classe], WBRC, 15 décembre 2023.
2. Margi Murphy et Bloomberg, « “Nudify” apps that use AI to undress women in photos are soaring in popularity, prompting worries about non-consensual porn » [Les applications « Nudify » qui utilisent l’IA pour déshabiller les femmes sur les photos sont de plus en plus populaires, ce qui suscite des inquiétudes quant à la pornographie non consensuelle], Fortune, 8 décembre 2023.
3. Tate Ryan-Mosley, « A high school’s deepfake porn scandal is pushing US lawmakers into action » [Le scandale de la pornographie hypertrucage d’un lycée pousse les législateurs américains à agir], MIT Technology Review, 1er décembre 2023.
4. Jack Guy, « Outcry in Spain as artificial intelligence used to create fake naked images of underage girls » [Tollé en Espagne : l’intelligence artificielle est utilisée pour créer de fausses images de filles mineures nues], CNN, 20 septembre 2023.
5. Pranshu Verma, « AI fake nudes are booming. It’s ruining real teens’ lives » [Les faux nus d’IA sont en plein essor. Ils ruinent la vie de vrais adolescents], The Washington Post, 5 novembre 2023.