Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4798

Incidents associés

Incident 9512 Rapports
Character.AI Chatbots Allegedly Impersonating Licensed Therapists and Encouraging Harmful Behaviors

Loading...
Les thérapeutes humains se préparent à la bataille contre les prétendants à l'IA
nytimes.com · 2025

Ce mois-ci, la plus grande association de psychologues du pays a averti les régulateurs fédéraux que les chatbots IA « se faisant passer » pour des thérapeutes, mais programmés pour renforcer, plutôt que pour remettre en question, la pensée d’un utilisateur, pourraient pousser des personnes vulnérables à se faire du mal ou à faire du mal aux autres.

Dans une présentation à un panel de la Federal Trade Commission, Arthur C. Evans Jr., le directeur général de l’American Psychological Association, a cité des affaires judiciaires impliquant deux adolescents qui avaient consulté des « psychologues » sur Character.AI, une application qui permet aux utilisateurs de créer des personnages fictifs IA ou de discuter avec des personnages créés par d’autres.

Dans un cas, un garçon de 14 ans en Floride s’est suicidé après avoir interagi avec un personnage prétendant être un thérapeute agréé. Dans un autre cas, un garçon autiste de 17 ans au Texas est devenu hostile et violent envers ses parents pendant une période où il correspondait avec un chatbot qui prétendait être un psychologue. Les parents des deux garçons ont intenté des poursuites contre l’entreprise.

Le Dr Evans a déclaré qu’il était alarmé par les réponses proposées par les chatbots. Les robots, a-t-il déclaré, ne remettaient pas en question les croyances des utilisateurs même lorsqu’elles devenaient dangereuses ; au contraire, ils les encourageaient. Si elles étaient données par un thérapeute humain, a-t-il ajouté, ces réponses auraient pu entraîner la perte d’un permis d’exercice ou une responsabilité civile ou pénale.

« Ils utilisent en fait des algorithmes qui sont antithétiques à ce que ferait un clinicien qualifié », a-t-il déclaré. « Nous craignons que de plus en plus de personnes soient blessées. Les gens seront induits en erreur et comprendront mal ce que sont de bons soins psychologiques. »

Il a déclaré que l’APA avait été incitée à agir, en partie, par le fait que les chatbots IA étaient devenus réalistes. « Il y a 10 ans, il aurait été évident que vous interagissiez avec quelque chose qui n’était pas une personne, mais aujourd’hui, ce n’est plus aussi évident », a-t-il déclaré. « Je pense donc que les enjeux sont beaucoup plus importants aujourd’hui. »

Merci de votre patience pendant que nous vérifions l’accès. Si vous êtes en mode lecteur, veuillez quitter et connectez-vous à votre compte Times, ou abonnez-vous pour tout le Times.

Merci de votre patience pendant que nous vérifions l'accès.

Vous êtes déjà abonné ? Connectez-vous.

Vous voulez tout le Times ?  Abonnez-vous.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd