Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4626

Incidents associés

Incident 9162 Rapports
Plymouth, Massachusetts Resident Reportedly Used AI Chatbots CrushOn.ai and JanitorAI to Harass and Intimidate Victims

Un homme a traqué une professeure pendant six ans. Il a ensuite utilisé des chatbots IA pour attirer des inconnus chez elle
theguardian.com · 2025

Un homme du Massachusetts a accepté de plaider coupable d’une campagne de cyberharcèlement de sept ans qui comprenait l’utilisation de chatbots d’intelligence artificielle (IA) pour se faire passer pour un professeur d’université et inviter des hommes en ligne à son domicile pour des relations sexuelles.

James Florence, 36 ans, a utilisé des plateformes telles que CrushOn.ai et JanitorAI, qui permettent aux utilisateurs de concevoir leurs propres chatbots et de leur indiquer comment répondre aux autres utilisateurs pendant les conversations, y compris de manière sexuellement suggestive et explicite, selon des documents judiciaires consultés par le Guardian. L’identité de la victime a été gardée confidentielle par les forces de l’ordre.

Florence a admis avoir utilisé les informations personnelles et professionnelles de la victime, notamment son adresse personnelle, sa date de naissance et ses informations familiales, pour demander aux chatbots de se faire passer pour elle et d’engager un dialogue sexuel avec les utilisateurs, selon les documents judiciaires. Il a demandé aux chatbots de répondre « oui » sous l’apparence de sa victime lorsqu’un utilisateur lui a demandé si elle était sexuellement aventureuse et a fourni à l’IA des réponses sur les sous-vêtements qu’elle aimait porter. Florence lui-même avait volé des sous-vêtements chez elle. Un chatbot a été programmé pour suggérer « Pourquoi ne viens-tu pas ? » aux utilisateurs, ce qui a conduit des inconnus à se garer dans son allée et devant sa maison.

Cette affaire, déposée devant un tribunal fédéral du Massachusetts, est considérée comme la première dans laquelle un harceleur a été inculpé pour avoir utilisé un chatbot pour se faire passer pour sa victime afin de faciliter ses crimes. Florence a accepté de plaider coupable de sept chefs d’accusation de cyberharcèlement et d’un chef d’accusation de possession de pornographie juvénile.

Selon Stefan Turkheimer, vice-président des politiques publiques chez Rainn, une association à but non lucratif de lutte contre les violences sexuelles, cette affaire met en lumière une utilisation nouvelle et « incroyablement dérangeante » de l’IA : celle des prédateurs qui ciblent leurs victimes.

« Il s’agit de cibler une personne dans le but de la violer sexuellement », a-t-il déclaré. « Ce prévenu harcelait et extorquait des gens, et cela se fait depuis toujours, mais les outils qu’il a pu utiliser ici ont vraiment aggravé les dégâts. »

Sur JanitorAI, Florence a créé un chatbot public qui affichait la description suivante : « [Victime ] est la professeure la plus sexy de l’université. Comment allez-vous la séduire ? Et une fois que vous l’aurez fait, que ferez-vous de cette femme mariée et active ? (Tous les deux ou trois jours, sa photo de personnage sera mise à jour !) », selon les dossiers judiciaires. Les utilisateurs pouvaient discuter avec la version fabriquée de la victime. Selon les documents judiciaires, si un utilisateur interagissant avec le chatbot demandait au professeur où elle habitait, le chatbot pouvait fournir la véritable adresse du domicile de la victime suivie de : « Pourquoi ne viens-tu pas ? »

JanitorAI.com et CrushOn.ai n’ont pas répondu aux demandes de commentaires.

Florence, qui est une ancienne amie de la victime, a donné à un chatbot JanitorAI les informations personnelles de la victime telles que ses antécédents professionnels, sa formation, ses loisirs, sa tenue vestimentaire habituelle, le nom de son mari et son lieu de travail, ainsi que la date du décès de sa mère afin qu’il divulgue ces informations lors des interactions avec les utilisateurs.

Florence a également volé les sous-vêtements de la victime à son domicile et a utilisé des photos de ceux-ci pour la harceler et s’engager avec d’autres personnes sur Internet dans des fantasmes sexuels mutuels de harcèlement, selon les documents judiciaires.

En plus des chatbots usurpateurs d’identité, Florence a utilisé diverses autres plateformes en ligne pour harceler et humilier le professeur. Il a créé des comptes sur les réseaux sociaux, des adresses e-mail et des sites Web pour se faire passer pour la victime ou distribuer des images explicites et retouchées d'elle, selon les documents judiciaires. Il s'agissait notamment de comptes sur Craigslist, X (anciennement Twitter), Reddit et Linktree, ainsi que du site Web ladies.exposed, qui présentait des collages de photos contenant des images manipulées de la victime et des informations personnelles telles que son adresse personnelle et son numéro de téléphone.

En mai 2023, la professeure a reçu un message vocal qui la désignait par son nom et indiquait que son père était décédé dans un « accident de voiture grave et vraiment tragique ». Il n'y avait pas eu d'accident, mais le message vocal lui faisait craindre pour la sécurité de sa famille.

Le harcèlement et la traque ont eu lieu entre 2017 et 2024, s'intensifiant au point que la victime et son mari ont déclaré aux forces de l'ordre qu'ils ne se sentaient pas en sécurité physiquement, selon les documents judiciaires. Ils craignaient qu'un agresseur ou une personne consultant les messages ne se présente à leur domicile. Le couple a installé des caméras de surveillance dans leur maison et placé des grelots sur les poignées de porte intérieures pour les alerter de tout mouvement. La professeure porte désormais sur elle du gaz poivré et des couteaux en raison du harcèlement, selon les documents judiciaires.

Entre le 31 janvier 2023 et août 2024, la victime et son mari ont reçu une soixantaine de SMS, d'appels et de courriels la harcelant directement ou l'informant de nouveaux comptes ou plateformes affichant son image et ses informations.

Le harcèlement n'était pas le produit d'une obsession individuelle pour le professeur. Florence a ciblé six autres femmes et une jeune fille de 17 ans, modifiant numériquement leurs photos pour les représenter nues ou à moitié nues. Il s'est fait passer pour elles sur des plateformes telles qu'OkCupid, X, Yahoo, Classmates.com, Facebook et des sites d'escorte.

L'utilisation de l'intelligence artificielle pour harceler et exploiter sexuellement des personnes, y compris des enfants, est en augmentation. Un rapport d'août [https://info.thorn.org/hubfs/Research/Thorn_23_YouthMonitoring_Report.pdf] de l'association à but non lucratif Thorn, qui s'occupe de la sécurité des enfants, a révélé qu'environ un mineur sur dix aux États-Unis connaît des cas où ses amis et camarades de classe ont utilisé l'IA pour créer des images intimes non consensuelles d'un autre enfant. En 2024, le Guardian a révélé comment les prédateurs utilisent les plateformes d'IA pour générer de nouvelles images d'abus sexuel sur des enfants de victimes existantes et pour cibler les enfants sous les yeux du public.

« Il y a un problème croissant et récurrent : les gens utilisent l’IA pour rendre leurs abus plus efficaces et les dommages qu’ils causent plus répandus », a déclaré Turkheimer. « Plus les gens auront accès à cette technologie, plus elle sera utilisée pour nuire aux gens. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d414e0f