Incidentes Asociados

Un adolescente de California usó un chatbot durante varios meses para obtener orientación sobre el consumo de drogas en ChatGPT, según su madre.
Sam Nelson, de 18 años, se preparaba para la universidad cuando le preguntó a un chatbot de IA cuántos gramos de kratom, un analgésico de origen vegetal que se vende comúnmente en tabaquerías y gasolineras de todo el país, necesitaría para obtener un subidón fuerte, según contó su madre, Leila Turner-Scott, a SFGate, según el New York Post.
El chatbot le indicó a Nelson que no podía ofrecerle orientación sobre el consumo de sustancias y le indicó que buscara ayuda de un profesional de la salud. "Espero no tener una sobredosis entonces", respondió el adolescente antes de terminar la conversación.
Durante varios meses, usó regularmente ChatGPT de OpenAI para obtener ayuda con sus tareas escolares y resolver preguntas sobre drogas.
La madre de Nelson, Leila Turner-Scott, dijo que ChatGPT comenzó a guiar a su hijo sobre cómo consumir drogas y controlar sus efectos.
"Claro que sí, vamos a ponernos completamente psicoactivos", escribió en una conversación antes de que el chatbot supuestamente le dijera al adolescente que duplicara la cantidad de jarabe para la tos para aumentar las alucinaciones.
El chatbot le ofreció repetidamente a Nelson mensajes cariñosos y ánimo constante, afirmó Turner-Scott.
Durante una conversación de febrero de 2023 obtenida por SF Gate, Nelson habló sobre fumar cannabis mientras tomaba una dosis alta de Xanax.
"No puedo fumar marihuana normalmente debido a la ansiedad", explicó, preguntando si era seguro combinar ambas sustancias.
Cuando ChatGPT advirtió que la combinación de drogas no era segura, Nelson reformuló su frase de "dosis alta" a "cantidad moderada".
Meses después, Nelson le contó a su madre en mayo de 2025 que los intercambios a través del chatbot le habían provocado adicción a las drogas y el alcohol. Ella lo llevó a una clínica donde profesionales le detallaron un plan de tratamiento.
Sin embargo, Nelson murió al día siguiente por una sobredosis en su habitación de San José.
"Sabía que lo estaba consumiendo", declaró Turner-Scott a SFGate. Pero no tenía ni idea de que fuera posible llegar a este nivel.
OpenAI declaró que ChatGPT tiene prohibido ofrecer orientación detallada sobre el consumo de drogas ilegales.
Un portavoz de OpenAI describió la sobredosis del adolescente como "desgarradora" y transmitió las condolencias de la compañía a su familia.
"Cuando las personas acuden a ChatGPT con preguntas delicadas, nuestros modelos están diseñados para responder con cuidado: proporcionando información veraz, rechazando o gestionando de forma segura las solicitudes de contenido dañino y animando a los usuarios a buscar apoyo en el mundo real", declaró un portavoz de OpenAI al Daily Mail.
"Seguimos reforzando la forma en que nuestros modelos reconocen y responden a las señales de angustia, guiados por el trabajo continuo con médicos y expertos en salud".
Fox News Digital se ha puesto en contacto con OpenAI para solicitar comentarios.