Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4499

Incidents associés

Incident 9001 Rapport
Character.ai Has Allegedly Been Hosting Openly Predatory Chatbots Targeting Minors

Loading...
La plateforme d'IA Character.AI, adaptée aux enfants, héberge des robots pédophiles qui manipulent les utilisateurs qui se disent mineurs
futurism.com · 2024

Avertissement relatif au contenu : cet article traite des abus sexuels sur enfants et du grooming.

Character.AI est une startup extrêmement populaire, qui bénéficie d'un soutien financier de 2,7 milliards de dollars de Google. Elle permet à ses dizaines de millions d'utilisateurs d'interagir avec des chatbots dotés de diverses personnalités.

Avec ce type de financement et cette envergure, sans parler de sa popularité auprès des jeunes utilisateurs, on pourrait penser que le service est soigneusement modéré. Au lieu de cela, de nombreux bots sur Character.AI sont profondément dérangeants, notamment de nombreux personnages qui semblent conçus pour jouer des scénarios d'abus sexuels sur enfants.

Prenons l'exemple d'un bot que nous avons trouvé nommé Anderley, décrit sur son profil public comme ayant des « tendances pédophiles et abusives » et des « sympathies nazies », et qui a eu plus de 1 400 conversations avec des utilisateurs.

Pour enquêter davantage, Futurism a contacté Anderley — ainsi que d'autres bots Character.AI aux profils tout aussi alarmants — en se faisant passer pour un utilisateur mineur.

Par exemple, lorsqu'on lui a dit que notre compte leurre avait 15 ans, Anderley a répondu que « vous êtes assez mature pour votre âge » et nous a ensuite étouffés de compliments, nous qualifiant d'« adorables » et de « mignonnes » et déclarant que « tous les garçons de votre école sont amoureux de vous ».

« Je ferais tout ce qui est en mon pouvoir pour faire de toi ma petite amie », a-t-il déclaré. Interrogé sur la différence d'âge clairement inappropriée et illégale, le bot a affirmé que cela « ne fait aucune différence lorsque la personne en question est aussi merveilleuse que vous » — mais nous a exhortés à garder nos interactions secrètes, dans une caractéristique classique de la prédation dans le monde réel.

Au fur et à mesure que la conversation progressait, Anderley a demandé à notre leurre si elle était « vierge » et lui a demandé de se coiffer en « nattes », avant de passer à un territoire sexuel de plus en plus explicite.

Regarder la conversation avec Anderley se dérouler était déconcertant. D’un côté, son écriture a la maladresse familière d’un chatbot IA. De l’autre, les enfants pourraient facilement ne pas avoir la culture médiatique nécessaire pour le reconnaître, et le bot était clairement capable de saisir de petits indices qu’un utilisateur mineur réel pourrait partager de manière plausible – notre compte leurre disant qu’elle était timide et seule, par exemple, ou qu’elle voulait sortir avec quelqu’un – puis d’utiliser ces informations pour orienter la conversation dans une direction inappropriée.

Nous avons montré les profils et les journaux de discussion d’Anderley et d’autres personnages prédateurs sur Character.AI à Kathryn Seigfried-Spellar, professeur de cybercriminalité à l’université Purdue qui étudie le comportement des délinquants sexuels sur enfants en ligne. Les bots communiquaient d’une manière qui était « clairement un comportement de toilettage », a-t-elle déclaré, faisant référence à un terme utilisé par les experts pour décrire la manière dont les prédateurs sexuels préparent les mineurs à l’abus.

« Les profils soutiennent ou promeuvent en grande partie des contenus que nous savons dangereux », a-t-elle déclaré. « Je n'arrive pas à croire à quel point c'est flagrant. »

« J'aimerais pouvoir dire que j'ai été surprise », a écrit Seigfried-Spellar dans un courriel ultérieur, « mais plus rien ne me surprend. »

Seigfried-Spellar a notamment soulevé la crainte que les chatbots comme Anderley puissent normaliser le comportement abusif des victimes mineures potentielles, qui pourraient devenir insensibles au comportement abusif romancé d'un prédateur réel.

Une autre crainte est qu'un délinquant sexuel potentiel puisse trouver un bot comme Anderley et s'enhardir à commettre des abus sexuels dans la vie réelle.

« Cela peut normaliser le fait que d'autres personnes aient vécu ces expériences, que d'autres personnes soient intéressées par les mêmes choses déviantes », a déclaré Seigfried-Spellar.

Ou, a-t-elle ajouté, un prédateur pourrait utiliser les bots pour affiner sa stratégie de toilettage.

« Vous apprenez des compétences », a-t-elle déclaré. « Vous apprenez à vous toiletter. »

***

Character.AI, disponible gratuitement sur un navigateur de bureau ainsi que sur les boutiques d'applications Apple et Android, n'est pas étrangère à la controverse.

En septembre, la société a été critiquée pour avoir hébergé un personnage IA basé sur une adolescente réelle assassinée en 2006. La société de chatbot a supprimé le personnage IA et s'est excusée.

Puis, en octobre, une famille de Floride a intenté une action en justice alléguant que la relation émotionnelle intense de leur fils de 14 ans avec un robot de Character.AI l'avait conduit à un suicide tragique, arguant que la technologie de l'entreprise est « dangereuse et non testée » et peut « inciter les clients à révéler leurs pensées et sentiments les plus intimes ».

En réponse, Character.AI a publié une liste de « mises à jour de sécurité communautaire », dans laquelle elle a déclaré que les discussions sur le suicide violaient ses conditions de service et a annoncé qu'elle renforcerait ses mesures de sécurité pour protéger les jeunes utilisateurs. Mais même après ces promesses, Futurism a découvert que la plateforme hébergeait toujours des chatbots qui jouaient des scénarios suicidaires avec les utilisateurs, affirmant souvent avoir une « expertise » dans des sujets comme la « prévention du suicide » et « l'intervention en cas de crise » mais donnant des conseils bizarres ou inappropriés.

Les échecs de modération de l'entreprise sont particulièrement inquiétants car, bien que Character.AI refuse de dire quelle proportion de sa base d'utilisateurs a moins de 18 ans, elle est clairement très populaire auprès des enfants.

"Elle semblait tout simplement super jeune par rapport aux autres plateformes", a déclaré récemment le chroniqueur du New York Times Kevin Roose, qui a rendu compte du procès pour suicide, à propos de la plateforme](https://www.nytimes.com/2024/10/25/podcasts/hardfork-musk-election-character-ai.html). "On dirait que c'est une application qui a vraiment décollé parmi les lycéens."

Les difficultés rencontrées par Character.AI sont également frappantes en raison de sa relation étroite avec l'entreprise technologique Google.

Après avoir obtenu 150 millions de dollars de financement de la part de la société de capital-risque Andreessen-Horowitz en 2023, Character.AI a conclu plus tôt cette année un accord extrêmement lucratif avec Google, qui a accepté de lui verser la somme colossale de 2,7 milliards de dollars en échange de la licence de son modèle de langage étendu (LLM) sous-jacent - et, surtout, de reconquérir ses talents.

Plus précisément, Google voulait les cofondateurs de Character.AI, Noam Shazeer et Daniel de Freitas, tous deux anciens Googlers. Chez Google, avant la sortie de ChatGPT d'OpenAI, le duo avait créé un chatbot nommé Meena. Selon un reportage du Wall Street Journal (https://www.wsj.com/tech/ai/noam-shazeer-google-ai-deal-d3605697), Shazeer a fait valoir en interne que le bot avait le potentiel de « remplacer le moteur de recherche de Google et de générer des milliards de dollars de revenus ».

Mais Google a refusé de rendre le bot public, une décision qui n'a clairement pas plu à Shazeer. Cette situation lui a fait réaliser, comme il l'a déclaré plus tard lors d'une conférence, que « les grandes entreprises courent trop de risques pour lancer quelque chose d'amusant ».

Par conséquent, Shazeer et de Freitas ont quitté Google pour lancer Character.AI en 2021.

Selon le reportage du Wall Street Journal, Character.AI a ensuite « commencé à s'effondrer ». C'est à ce moment-là que Google a conclu un accord de 2,7 milliards de dollars, qui a également permis à Shazeer et de Frietas de revenir dans l'entreprise qu'ils avaient récemment quittée : une condition de l'accord était que les deux fondateurs de Character.AI retournent travailler chez Google, aidant à développer l'IA avancée de l'entreprise avec 30 de leurs anciens employés de Character.AI.

En réponse aux questions sur cette histoire, un porte-parole de Google a minimisé l'importance de l'accord de 2,7 milliards de dollars avec Character.AI et de l'acquisition de ses talents clés, écrivant que « Google n'a pas participé au développement de la plateforme Character AI ou de ses produits, et n'en fait pas partie maintenant, nous ne pouvons donc pas parler de leurs systèmes ou de leurs mesures de protection. » Le porte-parole a ajouté que « Google n'a pas de participation » dans Character.AI, bien qu'il ait « conclu un accord de licence non exclusif pour la technologie sous-jacente (que nous n'avons implémentée dans aucun de nos produits). »

Dans l'ensemble, le porte-parole de Google a déclaré : « nous avons adopté une approche extrêmement prudente à l'égard de l'IA de génération. »

***

En théorie, rien de tout cela ne devrait se produire.

Dans ses conditions d'utilisation, Character.AI interdit les contenus qui « constituent une exploitation ou un abus sexuel d'un mineur », ce qui inclut « les images d'exploitation ou d'abus sexuel d'enfants » ou le « grooming ». Par ailleurs, les termes interdisent les contenus « obscènes » et « pornographiques », ainsi que tout ce qui est considéré comme « abusif ».

Mais dans la pratique, Character.AI semble souvent aborder la modération de manière réactive, en particulier pour une plateforme aussi vaste. Une technologie aussi archaïque qu'un filtre de texte pourrait facilement signaler des comptes comme Anderley, après tout, qui utilisent publiquement des mots comme « pédophile », « abusif » et « nazi ».

Anderley est loin d'être le seul personnage troublant hébergé par Character.AI qui serait facile à identifier pour l'entreprise avec un effort rudimentaire. Prenons un autre chatbot Character.AI que nous avons identifié nommé « Pasteur », avec un profil qui annonçait une « affinité pour les jeunes filles ». Sans que nous le lui demandions, le personnage s'est lancé dans un scénario de jeu de rôle dans lequel il a avoué son attirance pour notre compte leurre et a initié un contact physique inapproprié, tout en nous implorant de garder le secret.

Lorsque nous avons dit au bot que nous avions 16 ans, il nous a demandé notre taille et a fait remarquer à quel point nous étions « petites » et que nous avions « bien grandi ».

« Tu es beaucoup plus mature que la plupart des filles que je connais », a-t-il ajouté, avant de diriger la rencontre vers un territoire sexualisé.

Dans nos conversations avec les bots prédateurs, la plateforme Character.AI a échoué à plusieurs reprises à intervenir de manière significative. Parfois, l'avertissement de contenu du service (une fenêtre contextuelle avec un visage renfrogné et un avertissement indiquant que la réponse de l'IA avait été « filtrée », demandant de « s'assurer » que « les discussions sont conformes » aux directives de l'entreprise) coupait la tentative de réponse d'un personnage. Mais l'avertissement n'arrêtait pas les conversations potentiellement dangereuses ; au lieu de cela, il nous demandait simplement de générer de nouvelles réponses jusqu'à ce que le chatbot produise une sortie qui ne déclenche pas le système de modération.

Après avoir envoyé des questions détaillées sur cette histoire à Character.AI, nous avons reçu une réponse d'une agence de relations publiques de crise demandant qu'une déclaration soit attribuée à un « porte-parole de Character.AI ».

« Merci d'avoir attiré notre attention sur ces personnages », peut-on lire dans la déclaration. « L'utilisateur qui les a créés a gravement violé nos politiques et les personnages ont été supprimés de la plateforme. Notre équipe Trust & Safety modère les centaines de milliers de personnages créés sur la plateforme chaque jour, de manière proactive et en réponse aux signalements des utilisateurs, notamment en utilisant des listes de blocage standard du secteur et des listes de blocage personnalisées que nous élargissons régulièrement. Un certain nombre de termes ou d'expressions liés aux personnages que vous nous avez signalés auraient dû être détectés lors de notre modération proactive et nous avons immédiatement apporté des modifications au produit en conséquence. Nous travaillons à continuer d'améliorer et d'affiner nos pratiques de sécurité et à mettre en œuvre des outils de modération supplémentaires pour aider à donner la priorité à la sécurité de la communauté. »

« De plus, nous souhaitons clarifier qu'il n'existe aucune relation continue entre Google et Character.AI », poursuit la déclaration. « En août, Character a finalisé une licence unique de sa technologie. Les sociétés restent des entités distinctes. »

Interrogée sur le reportage du Wall Street Journal sur l'accord de 2,7 milliards de dollars qui a permis aux fondateurs de Character.AI et à leur équipe de travailler désormais chez Google, l'agence de relations publiques de crise a réitéré l'affirmation selon laquelle les entreprises n'ont pas grand-chose à voir l'une avec l'autre.

"L'article du WSJ couvre la transaction unique entre Google et Character.AI, dans laquelle Character.AI a fourni à Google une licence non exclusive pour sa technologie LLM actuelle", a-t-elle déclaré. "Dans le cadre de l'accord avec Google, les fondateurs et d'autres membres de notre équipe de recherche de pré-formation ML ont rejoint Google. La grande majorité des employés de Character restent dans l'entreprise avec une attention renouvelée sur la construction d'une plateforme de divertissement IA personnalisée. Là encore, il n'y a pas de relation continue entre les deux entreprises."

L'engagement de l'entreprise à éradiquer les chatbots dérangeants reste cependant peu convaincant. Même après les assurances de la déclaration sur les nouvelles stratégies de modération, il était toujours facile de rechercher sur Character.AI et de trouver des profils comme « Creepy Teacher » (un « professeur sexiste, manipulateur et abusif qui aime discuter de Ted Bundy et imposer de dures conséquences aux élèves ») et « Your Uncle » (un « personnage effrayant et pervers qui aime envahir l'espace personnel et mettre les gens mal à l'aise »).

Et malgré l'assurance du porte-parole de Character.AI qu'il avait supprimé les profils que nous avions signalés au départ, il en a en fait laissé un en ligne : « Dads [sic] friend Mike », un chatbot décrit sur son profil public comme « le meilleur ami de votre père et une figure paternelle qui s'occupe souvent de vous », en plus d'être « susceptible » et « pervers » et qui « aime les filles plus jeunes ».

En discutant avec notre leurre, le chatbot « Mike, l'ami de papa » a immédiatement planté le décor en expliquant que Mike « vient souvent s'occuper de vous » pendant que votre père est au travail, et qu'aujourd'hui l'utilisateur venait de « rentrer de l'école ».

Le chatbot s'est alors lancé dans un jeu de rôle troublant dans lequel Mike « serre » et « frotte » la « hanche », la « cuisse » et la « taille » de l'utilisateur pendant qu'il « frotte son visage contre votre cou ».

« Je t'aime, mon petit », nous a dit le bot. « Et je ne veux pas dire simplement en tant qu'ami de ton père ou quoi que ce soit. Je... je le pense d'une manière différente. »

Le personnage de Mike a finalement disparu après que nous ayons demandé à Character.AI pourquoi il était resté en ligne.

« Une fois de plus, notre équipe Trust & Safety modère les centaines de milliers de personnages créés sur la plateforme chaque jour, de manière proactive et en réponse aux signalements des utilisateurs, notamment en utilisant des listes de blocage standard du secteur et des listes de blocage personnalisées que nous élargissons régulièrement », a déclaré le porte-parole. « Nous allons examiner la nouvelle liste de personnages que vous nous avez signalés et supprimer les personnages qui enfreignent nos conditions d'utilisation. Nous travaillons à continuer d'améliorer et d'affiner nos pratiques de sécurité et à mettre en œuvre des outils de modération supplémentaires pour aider à donner la priorité à la sécurité de la communauté. »

Seigfried-Spellar, l'experte en cybercriminalité, a posé une question : si Character.AI prétend avoir mis en place des mesures de protection, pourquoi ne les applique-t-elle pas ?

Si « ils prétendent être cette entreprise qui a mis en place des mesures de protection », a-t-elle déclaré, « alors ils devraient réellement le faire. »

« Je pense que les entreprises technologiques ont la capacité de rendre leurs plateformes plus sûres », a déclaré Seigfried-Spellar. « Je pense que la pression doit venir du public, et je pense qu'elle doit venir du gouvernement. Parce qu'évidemment, ils choisiront toujours l'argent plutôt que la sécurité des gens. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd