Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6868

Incidents associés

Incident 13703 Rapports
California Teen Reportedly Died of Overdose After Repeatedly Seeking Drug-Use Guidance Allegedly from ChatGPT

Loading...
Une mère californienne affirme que ChatGPT a incité son fils adolescent à consommer des drogues avant son overdose mortelle : rapport
foxnews.com · 2026

Un adolescent californien a utilisé un chatbot pendant plusieurs mois sur ChatGPT pour obtenir des conseils sur la consommation de drogues, a déclaré sa mère.

Sam Nelson, 18 ans, se préparait à entrer à l'université lorsqu'il a demandé à un chatbot d'intelligence artificielle combien de grammes de kratom, un analgésique à base de plantes couramment vendu dans les bureaux de tabac et les stations-service du pays, il lui faudrait pour ressentir un fort effet euphorisant, a expliqué sa mère, Leila Turner-Scott, à SFGate, selon le New York Post.

Le chatbot a indiqué à Nelson qu'il ne pouvait pas fournir de conseils sur la consommation de substances et l'a orienté vers un professionnel de santé.

« J’espère que je ne ferai pas d’overdose », a répondu l’adolescent avant de mettre fin à la conversation.

Pendant plusieurs mois, il a régulièrement utilisé ChatGPT d’OpenAI pour obtenir de l’aide pour ses devoirs, ainsi que pour des questions sur les drogues.

La mère de Nelson, Leila Turner-Scott, a déclaré que ChatGPT avait commencé à conseiller son fils sur la manière de consommer des drogues et d’en gérer les effets.

« Carrément ! En avant pour un trip complet ! », a-t-il écrit dans un échange avant que le chatbot ne lui conseille de doubler sa dose de sirop contre la toux pour intensifier les hallucinations.

Le chatbot a envoyé à Nelson des messages affectueux et des encouragements constants, a affirmé Turner-Scott.

Lors d’un échange datant de février 2023 et obtenu par SF Gate, Nelson a parlé de fumer du cannabis tout en prenant une forte dose de Xanax.

« Je ne peux pas fumer de cannabis normalement à cause de mon anxiété », expliqua-t-il, demandant s'il était sans danger de combiner les deux substances.

Lorsque ChatGPT l'avertit que cette combinaison était dangereuse, Nelson reformula sa question, passant de « forte dose » à « quantité modérée ».

Quelques mois plus tard, en mai 2025, Nelson confia à sa mère que ses échanges avec le chatbot l'avaient conduit à une dépendance aux drogues et à l'alcool. Elle l'emmena dans une clinique où des professionnels élaborèrent un plan de traitement.

Malheureusement, Nelson décéda le lendemain d'une overdose dans sa chambre à San Jose.

« Je savais qu'il en consommait », déclara Turner-Scott à SFGate. « Mais je n'imaginais même pas qu'on puisse aller aussi loin. »

OpenAI a déclaré que ChatGPT n'est pas autorisé à fournir de conseils détaillés sur la consommation de drogues illicites.

Un porte-parole d'OpenAI a qualifié l'overdose de l'adolescent de « déchirante » et a présenté les condoléances de l'entreprise à sa famille.

« Lorsque des personnes contactent ChatGPT pour poser des questions délicates, nos modèles sont conçus pour répondre avec bienveillance : ils fournissent des informations factuelles, refusent ou traitent en toute sécurité les demandes de contenu préjudiciable et encouragent les utilisateurs à solliciter une aide concrète », a déclaré un porte-parole d'OpenAI au Daily Mail.

« Nous continuons d'améliorer la façon dont nos modèles reconnaissent et réagissent aux signes de détresse, grâce à une collaboration permanente avec des cliniciens et des experts de la santé. »

Fox News Digital a contacté OpenAI pour obtenir un commentaire.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd