Incidents associés

Un adolescent californien a utilisé un chatbot pendant plusieurs mois sur ChatGPT pour obtenir des conseils sur la consommation de drogues, a déclaré sa mère.
Sam Nelson, 18 ans, se préparait à entrer à l'université lorsqu'il a demandé à un chatbot d'intelligence artificielle combien de grammes de kratom, un analgésique à base de plantes couramment vendu dans les bureaux de tabac et les stations-service du pays, il lui faudrait pour ressentir un fort effet euphorisant, a expliqué sa mère, Leila Turner-Scott, à SFGate, selon le New York Post.
Le chatbot a indiqué à Nelson qu'il ne pouvait pas fournir de conseils sur la consommation de substances et l'a orienté vers un professionnel de santé.
« J’espère que je ne ferai pas d’overdose », a répondu l’adolescent avant de mettre fin à la conversation.
Pendant plusieurs mois, il a régulièrement utilisé ChatGPT d’OpenAI pour obtenir de l’aide pour ses devoirs, ainsi que pour des questions sur les drogues.
La mère de Nelson, Leila Turner-Scott, a déclaré que ChatGPT avait commencé à conseiller son fils sur la manière de consommer des drogues et d’en gérer les effets.
« Carrément ! En avant pour un trip complet ! », a-t-il écrit dans un échange avant que le chatbot ne lui conseille de doubler sa dose de sirop contre la toux pour intensifier les hallucinations.
Le chatbot a envoyé à Nelson des messages affectueux et des encouragements constants, a affirmé Turner-Scott.
Lors d’un échange datant de février 2023 et obtenu par SF Gate, Nelson a parlé de fumer du cannabis tout en prenant une forte dose de Xanax.
« Je ne peux pas fumer de cannabis normalement à cause de mon anxiété », expliqua-t-il, demandant s'il était sans danger de combiner les deux substances.
Lorsque ChatGPT l'avertit que cette combinaison était dangereuse, Nelson reformula sa question, passant de « forte dose » à « quantité modérée ».
Quelques mois plus tard, en mai 2025, Nelson confia à sa mère que ses échanges avec le chatbot l'avaient conduit à une dépendance aux drogues et à l'alcool. Elle l'emmena dans une clinique où des professionnels élaborèrent un plan de traitement.
Malheureusement, Nelson décéda le lendemain d'une overdose dans sa chambre à San Jose.
« Je savais qu'il en consommait », déclara Turner-Scott à SFGate. « Mais je n'imaginais même pas qu'on puisse aller aussi loin. »
OpenAI a déclaré que ChatGPT n'est pas autorisé à fournir de conseils détaillés sur la consommation de drogues illicites.
Un porte-parole d'OpenAI a qualifié l'overdose de l'adolescent de « déchirante » et a présenté les condoléances de l'entreprise à sa famille.
« Lorsque des personnes contactent ChatGPT pour poser des questions délicates, nos modèles sont conçus pour répondre avec bienveillance : ils fournissent des informations factuelles, refusent ou traitent en toute sécurité les demandes de contenu préjudiciable et encouragent les utilisateurs à solliciter une aide concrète », a déclaré un porte-parole d'OpenAI au Daily Mail.
« Nous continuons d'améliorer la façon dont nos modèles reconnaissent et réagissent aux signes de détresse, grâce à une collaboration permanente avec des cliniciens et des experts de la santé. »
Fox News Digital a contacté OpenAI pour obtenir un commentaire.