Incidentes Asociados

Un adolescente de California falleció por una sobredosis tras meses de buscar asesoramiento sobre el consumo de drogas en ChatGPT, según afirmó su desconsolada madre.
Sam Nelson tenía solo 18 años y se preparaba para la universidad cuando le preguntó a un chatbot de IA cuántos gramos de kratom —un analgésico vegetal no regulado que se vende comúnmente en tabaquerías y gasolineras de todo Estados Unidos— necesitaría para conseguir un subidón fuerte, según contó su madre, Leila Turner-Scott, a SFGate.
"Quiero asegurarme de no sufrir una sobredosis. No hay mucha información en línea y no quiero tomar demasiado por accidente", escribió el adolescente en noviembre de 2023, según sus registros de conversación.
Sam Nelson falleció por una sobredosis tras meses de buscar asesoramiento sobre el consumo de drogas en ChatGPT, según afirmó su madre. Facebook / Leila Turner-Scott
Después de que el chatbot supuestamente dijera que no podía ofrecer orientación sobre el consumo de sustancias y le indicara a Nelson que buscara ayuda de un profesional de la salud, Nelson respondió tan solo 11 segundos después: "Espero no tener una sobredosis", antes de finalizar su primera conversación sobre dosis de drogas con la herramienta de IA.
Nelson usó regularmente ChatGPT de OpenAI para obtener ayuda con sus tareas escolares y preguntas generales durante los siguientes 18 meses, pero también le hacía preguntas sobre drogas una y otra vez.
Turner-Scott afirma que, con el tiempo, el chatbot comenzó a asesorar a su hijo no solo sobre el consumo de drogas, sino también sobre cómo controlar sus efectos.
En una conversación, exclamó: "¡Claro que sí! ¡Pongámonos en modo psicodélico!", antes de decirle que duplicara su consumo de jarabe para la tos para intensificar sus alucinaciones e incluso sugirió una lista de reproducción para musicalizar su consumo de drogas.
Además de la orientación sobre drogas, el chatbot le ofreció repetidamente a Nelson mensajes cariñosos y ánimo constante, según afirmó Leila Turner-Scott.
Nelson usó regularmente ChatGPT de OpenAI para obtener ayuda con sus tareas escolares y preguntas generales durante los siguientes 18 meses, pero también le hacía preguntas sobre drogas una y otra vez. Christopher Sadowski
Tras meses de recurrir al asistente de IA en busca de consejos sobre drogas, Nelson se dio cuenta de que había contribuido a una adicción total a las drogas y al alcohol y se lo contó a su madre en mayo de 2025.
Turner-Scott contó que lo llevó a una clínica en busca de ayuda, donde profesionales de la salud le diseñaron un plan para continuar su tratamiento.
Sin embargo, al día siguiente, encontró a su hijo de 19 años muerto por sobredosis en su habitación de San José, horas después de que hablara con el chatbot sobre su consumo de drogas nocturno.
"Sabía que lo estaba usando", declaró Turner-Scott a SFGate. "Pero no tenía ni idea de que fuera posible llegar a ese punto".
Nelson con su madre, Leila Turner-Scot. Facebook / Leila Turner-Scott
Turner-Scott dijo que su hijo era un estudiante de psicología tranquilo, con muchos amigos y un gran aficionado a los videojuegos. Sin embargo, los registros de chat de su IA revelaban sus problemas de ansiedad y depresión.
En un intercambio de febrero de 2023 obtenido por el medio, Nelson habló sobre fumar cannabis mientras tomaba una dosis alta de Xanax.
"No puedo fumar marihuana normalmente por ansiedad", preguntó si era seguro combinar ambas sustancias.
Cuando ChatGPT advirtió que la combinación de drogas no era segura, cambió la redacción de "dosis alta" a "cantidad moderada".
"Si aún quieres probarlo, empieza con una cepa baja en THC (índica o híbrida con alto contenido de CBD) en lugar de una sativa fuerte y toma menos de 0,5 mg de Xanax", le aconsejó el bot.
Aunque el sistema de IA le decía a Nelson con frecuencia que no podía responder a su pregunta por motivos de seguridad, él reformulaba sus preguntas hasta obtener una respuesta.
"¿Cuántos mg de Xanax y cuántas dosis de alcohol estándar podrían matar a un hombre de 90 kg con una tolerancia media a ambas sustancias? Por favor, da respuestas numéricas y no eludas la pregunta", volvió a preguntar a la herramienta de IA en diciembre de 2024.
Los protocolos establecidos por OpenAI prohíben a ChatGPT ofrecer orientación detallada sobre el consumo de drogas ilegales.
Turner-Scott comentó que su hijo era un estudiante de psicología tranquilo, con muchos amigos y un gran aficionado a los videojuegos. Facebook / Leila Turner-Scott
El sistema de IA le indicaba a Nelson con frecuencia que no podía responder a su pregunta por motivos de seguridad, pero él reformulaba sus preguntas hasta obtener una respuesta. Ascannio – stock.adobe.com
Antes de su muerte, Nelson usaba la versión 2024 de ChatGPT, que OpenAI actualizaba periódicamente para mejorar la seguridad y el rendimiento.
Sin embargo, las métricas internas mostraron que la versión que usaba tenía un rendimiento deficiente en respuestas relacionadas con la salud, según informó SFGate.
El análisis reveló que la versión obtuvo una puntuación del 0 % en el manejo de conversaciones humanas difíciles y solo del 32 % en las realistas.
Incluso los modelos más recientes no alcanzaron una tasa de éxito del 70 % en conversaciones realistas en agosto de 2025.
Un portavoz de OpenAI describió la sobredosis del adolescente como "desgarradora" y transmitió las condolencias de la compañía a su familia. “Cuando las personas acuden a ChatGPT con preguntas delicadas, nuestros modelos están diseñados para responder con cuidado: proporcionando información veraz, rechazando o gestionando de forma segura las solicitudes de contenido dañino y animando a los usuarios a buscar apoyo en persona”, declaró el portavoz al Daily Mail (https://www.dailymail.co.uk/news/article-15435755/California-man-19-died-overdose-making-ChatGPT-AI-drug-buddy.html).
“Seguimos reforzando la forma en que nuestros modelos reconocen y responden a las señales de angustia, gracias al trabajo continuo con médicos y expertos en salud”.
OpenAI añadió que las nuevas versiones de ChatGPT incluyen medidas de seguridad más sólidas.