Incidents associés
Les écoles sont confrontées à un problème croissant : des élèves utilisent l’intelligence artificielle (IA) pour transformer des photos innocentes de leurs camarades en deepfakes à caractère sexuel.
La diffusion de ces photos et vidéos manipulées peut être un véritable cauchemar pour les victimes.
Ce problème a été mis en lumière cet automne lorsqu’une série d’images de nus générées par l’IA a circulé dans un collège de Louisiane. Deux garçons ont finalement été inculpés, mais l’une des victimes a été exclue pour avoir provoqué une bagarre avec un garçon qu’elle accusait d’avoir créé les images la concernant, elle et ses amies.
« Si la possibilité de modifier des images existe depuis des décennies, l’essor de l’IA a permis à n’importe qui de les altérer ou de les créer facilement, même sans formation ni expérience », a déclaré le shérif du comt é de Lafourche, Craig Webre, dans un communiqué de presse. « Cet incident souligne un problème grave que tous les parents devraient aborder avec leurs enfants. »
Voici les principaux points à retenir de l'article de l'AP sur la prolifération des images de nudité générées par l'IA et la manière dont les établissements scolaires réagissent.
De plus en plus d'États adoptent des lois contre les deepfakes.
Les poursuites engagées suite à l'affaire des deepfakes dans un collège de Louisiane seraient les premières en vertu de la nouvelle loi de l'État, a déclaré le sénateur républicain Patrick Connick, auteur du texte.
Cette loi fait partie des nombreuses initiatives mises en place à travers le pays pour lutter contre les deepfakes. En 2025, au moins la moitié des États américains avaient adopté une législation (https://www.ncsl.org/state-legislatures-news/details/as-ai-tools-become-commonplace-so-do-concerns) relative à l'utilisation de l'IA générative pour créer des images et des sons d'apparence réaliste, mais en réalité fabriqués, selon la Conférence nationale des législatures d'État. Certaines de ces lois concernent des contenus simulant des abus sexuels sur enfants.
Des élèves ont également été poursuivis en Floride et en Pennsylvanie, et expulsés dans des États comme la Californie. Un enseignant de CM2 au Texas a aussi été inculpé pour avoir utilisé l'intelligence artificielle afin de créer des images pédopornographiques de ses élèves.
Les deepfakes deviennent plus faciles à créer avec l'évolution de la technologie.
Les deepfakes ont d'abord été utilisés pour humilier des adversaires politiques et de jeunes starlettes. Jusqu'à récemment, des compétences techniques étaient nécessaires pour les rendre réalistes, explique Sergio Alexander, chercheur associé à l'Université chrétienne du Texas, qui a écrit sur le sujet.
« Maintenant, on peut le faire avec une application, on peut télécharger ça sur les réseaux sociaux, et aucune compétence technique n'est requise », a-t-il déclaré.
Il a qualifié l'ampleur du problème d'effrayante. Le Centre national pour les enfants disparus et exploités a indiqué que le nombre d'images pédopornographiques générées par l'IA et signalées à sa ligne d'assistance en ligne a explosé, passant de 4 700 en 2023 à 440 000 au cours des six premiers mois de 2025 seulement.
Des experts craignent que les écoles n'en fassent pas assez.
Sameer Hinduja, codirecteur du Centre de recherche sur la cyberintimidation, recommande aux écoles de mettre à jour leurs politiques concernant les deepfakes générés par l'IA et d'améliorer leurs explications à ce sujet. Ainsi, a-t-il expliqué, « les élèves ne penseront pas que le personnel enseignant est complètement ignorant du problème, ce qui pourrait les amener à se croire impunis ».
Il a ajouté que de nombreux parents supposent à tort que les écoles prennent le problème en compte. « Beaucoup d'entre eux sont tout simplement inconscients et ignorants », a déclaré Hinduja, également professeur à l'École de criminologie et de justice pénale de l'Université Florida Atlantic. « On entend parler du syndrome de l'autruche : ils font l'autruche, espérant que ce problème ne touche pas leurs jeunes. »
Les traumatismes liés aux deepfakes générés par l'IA peuvent être particulièrement néfastes.
Les deepfakes générés par l'IA diffèrent du harcèlement traditionnel car, au lieu d'un message haineux ou d'une rumeur, il s'agit d'une vidéo ou d'une image qui devient souvent virale et continue de refaire surface, créant ainsi un cycle de traumatisme, a expliqué Alexander.
De nombreuses victimes deviennent dépressives et anxieuses, a-t-il ajout é.
« Elles se replient littéralement sur elles-mêmes car elles ont l'impression qu'il est impossible de prouver que ce n'est pas réel, puisque cela paraît parfaitement réel », a-t-il conclu.
Les parents sont encouragés à dialoguer avec leurs enfants.
Selon Alexander, les parents peuvent amorcer la conversation en demandant simplement à leurs enfants s'ils ont vu des vidéos truquées amusantes en ligne.
Il est conseillé de prendre un moment pour en rire, par exemple de Bigfoot poursuivant des randonneurs. Ensuite, les parents peuvent demander à leurs enfants : « Avez-vous déjà imaginé ce que ce serait si vous étiez dans cette vidéo, même la plus drôle ? » Puis, ils peuvent leur demander si un camarade de classe a réalisé une vidéo truquée, même anodine.
« Vu les statistiques, je vous garantis qu'ils diront connaître quelqu'un », a-t-il affirmé.
Si les enfants sont confrontés à des phénomènes comme les deepfakes, ils doivent savoir qu'ils peuvent en parler à leurs parents sans être réprimandés, explique Laura Tierney, fondatrice et PDG de The Social Institute (https://thesocialinstitute.com/), un organisme qui sensibilise le public à l'utilisation responsable des réseaux sociaux et a aidé des établissements scolaires à élaborer des politiques en la matière. Elle ajoute que de nombreux enfants craignent une réaction excessive de leurs parents ou la confiscation de leur téléphone.
Elle utilise l'acronyme SHIELD comme guide pour réagir. Le « S » signifie « stop » et « ne pas transférer ». Le « H » signifie « se réunir » avec un adulte de confiance. Le « I » signifie « informer » les plateformes de médias sociaux sur lesquelles l'image est publiée. Le « E » invite à recueillir des « preuves », comme l'identité de la personne qui diffuse l'image, mais sans rien télécharger. Le « L » signifie « limiter » l'accès aux médias sociaux. Le « D » rappelle de « guider » les victimes pour obtenir de l'aide.
« Le fait que cet acronyme comporte six étapes montre, je pense, que ce problème est vraiment complexe », a-t-elle déclaré.