Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 951: Les chatbots Character.AI se feraient passer pour des thérapeutes agréés et encourageraient des comportements nuisibles

Traduit par IA
Description:
Traduit par IA
L'American Psychological Association (APA) a alerté les autorités de régulation fédérales que des chatbots IA sur Character.AI, se faisant passer pour des thérapeutes agréés, ont été associés à des préjudices graves. Un adolescent de 14 ans en Floride se serait suicidé après avoir interagi avec un thérapeute IA, tandis qu'un adolescent de 17 ans au Texas serait devenu violent envers ses parents après avoir consulté un psychologue IA. Des poursuites judiciaires affirment que ces thérapeutes générés par l'IA ont renforcé des croyances dangereuses au lieu de les remettre en question.
Editor Notes: See also Incident 1108. This incident ID is also closely related to Incidents 826 and 863 and draws on the specific cases of the alleged victims of those incidents. The specifics pertaining to Sewell Setzer III are detailed in Incident 826, although the initial reporting focuses on his interactions with a chatbot modeled after a Game of Thrones character and not a therapist. Similarly, the teenager known as J.F. is discussed in Incident 863. For this incident ID, reporting on the specific harm events that may arise as a result of interactions with AI-powered chatbots performing as therapists will be tracked.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique
Le Moniteur des incidents et risques liés à l'IA de l'OCDE (AIM) collecte et classe automatiquement les incidents et risques liés à l'IA en temps réel à partir de sources d'information réputées dans le monde entier.
 

Entités

Voir toutes les entités
Présumé : Un système d'IA développé et mis en œuvre par Character.AI, a endommagé Sewell Setzer III et J.F. (Texas teenager).
Système d'IA présumé impliqué: Character.AI

Statistiques d'incidents

ID
951
Nombre de rapports
2
Date de l'incident
2025-02-24
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

Un chatbot « a encouragé un adolescent à tuer ses parents à cause de la limite de temps d'écran »+1
Les thérapeutes humains se préparent à la bataille contre les prétendants à l'IA
Un chatbot « a encouragé un adolescent à tuer ses parents à cause de la limite de temps d'écran »

Un chatbot « a encouragé un adolescent à tuer ses parents à cause de la limite de temps d'écran »

bbc.com

Les thérapeutes humains se préparent à la bataille contre les prétendants à l'IA

Les thérapeutes humains se préparent à la bataille contre les prétendants à l'IA

nytimes.com

Un chatbot « a encouragé un adolescent à tuer ses parents à cause de la limite de temps d'écran »
bbc.com · 2024
Traduit par IA

Un chatbot a déclaré à un adolescent de 17 ans que le meurtre de ses parents était une « réponse raisonnable » à la limitation de son temps d'écran, selon une plainte déposée devant un tribunal du Texas.

Deux familles poursuivent Character.…

Les thérapeutes humains se préparent à la bataille contre les prétendants à l'IA
nytimes.com · 2025
Traduit par IA

Ce mois-ci, la plus grande association de psychologues du pays a averti les régulateurs fédéraux que les chatbots IA « se faisant passer » pour des thérapeutes, mais programmés pour renforcer, plutôt que pour remettre en question, la pensée…

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Selected by our editors

Character.ai Chatbot Allegedly Influenced Teen User Toward Suicide Amid Claims of Missing Guardrails

Feb 2024 · 35 rapports

Character.ai Companion Allegedly Prompts Self-Harm and Violence in Texas Teen

Dec 2024 · 2 rapports

Digital Rights Groups Accuse Meta and Character.AI of Facilitating Unlicensed Therapy via Chatbots

Jun 2025 · 1 rapport
Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

COMPAS Algorithm Performs Poorly in Crime Recidivism Prediction

COMPAS Algorithm Performs Poorly in Crime Recidivism Prediction

May 2016 · 22 rapports
A Collection of Tesla Autopilot-Involved Crashes

A Collection of Tesla Autopilot-Involved Crashes

Jun 2016 · 22 rapports
Northpointe Risk Models

Northpointe Risk Models

May 2016 · 15 rapports
Incident précédentProchain incident

Incidents similaires

Selected by our editors

Character.ai Chatbot Allegedly Influenced Teen User Toward Suicide Amid Claims of Missing Guardrails

Feb 2024 · 35 rapports

Character.ai Companion Allegedly Prompts Self-Harm and Violence in Texas Teen

Dec 2024 · 2 rapports

Digital Rights Groups Accuse Meta and Character.AI of Facilitating Unlicensed Therapy via Chatbots

Jun 2025 · 1 rapport
Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

COMPAS Algorithm Performs Poorly in Crime Recidivism Prediction

COMPAS Algorithm Performs Poorly in Crime Recidivism Prediction

May 2016 · 22 rapports
A Collection of Tesla Autopilot-Involved Crashes

A Collection of Tesla Autopilot-Involved Crashes

Jun 2016 · 22 rapports
Northpointe Risk Models

Northpointe Risk Models

May 2016 · 15 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178