Incidentes Asociados
Cuidado con la interacción con los chatbots, ya que podrías estar dándoles motivos para cometer un asesinato premeditado.
Una mujer de 21 años en Corea del Sur supuestamente usó ChatGPT para responder preguntas mientras planeaba una serie de asesinatos que dejaron a dos hombres muertos y a otro brevemente inconsciente.
La mujer, identificada únicamente por su apellido, Kim, supuestamente les dio a dos hombres bebidas con benzodiazepinas que le recetaron para una enfermedad mental, según informó el Korea Herald (https://www.koreaherald.com/article/10678557).
Aunque Kim fue arrestada inicialmente por el cargo menor de infligir lesiones corporales con resultado de muerte el 11 de febrero, no fue hasta que la policía de Gangbuk, en Seúl, encontró su historial de búsqueda en línea y conversaciones de chat con ChatGPT y aumentó los cargos, estableciendo sus preguntas su presunta intención de matar.
"¿Qué pasa si se toman pastillas para dormir con alcohol?" Se dice que Kim le preguntó al chatbot de OpenAI: "¿Qué cantidad se consideraría peligrosa?".
"¿Podría ser mortal?", supuestamente preguntó Kim. "¿Podría matar a alguien?".
En un caso ampliamente publicitado, conocido como las muertes en serie del motel Gangbuk, la fiscalía alega que el historial de búsqueda y uso del chatbot de Kim muestra que el sospechoso pidió aclaraciones sobre si su cóctel sería mortal.
"Kim hizo repetidamente preguntas relacionadas con drogas en ChatGPT. Ella era plenamente consciente de que consumir alcohol junto con drogas podía causar la muerte", declaró un investigador policial, según el Herald.
La policía indicó que la mujer admitió haber mezclado sedantes recetados que contenían benzodiazepinas en las bebidas de los hombres, pero previamente declaró que no sabía que esto les causaría la muerte.
El 28 de enero, poco antes de las 21:30, Kim acompañó a un hombre veinteañero a un motel Gangbuk en Seúl, y dos horas después fue vista saliendo sola del motel. Al día siguiente, el hombre fue encontrado muerto en la cama.
Kim presuntamente realizó los mismos pasos el 9 de febrero, registrándose en otro motel con otro hombre veinteañero, quien también fue encontrado muerto con la misma combinación mortal de sedantes y alcohol.
La policía alega que Kim también intentó matar a un hombre con el que salía en diciembre, después de darle una bebida con sedantes en un estacionamiento. Aunque el hombre perdió el conocimiento, sobrevivió y no se encontraba en un... condición potencialmente mortal.
Las preguntas que Kim le hizo al chatbot siguen una línea de preguntas basadas en hechos, según declaró un portavoz de OpenAI a Fortune, lo que significa que no generarían alarmas, como las que surgirían si un usuario expresara declaraciones de autolesión (ChatGPT está programado para responder a la línea directa de crisis por suicidio en ese caso). La policía surcoreana no alega que el chatbot haya proporcionado otras respuestas que no sean basadas en hechos en respuesta a las supuestas preguntas de Kim mencionadas anteriormente.
Chatbots y su impacto en la salud mental
Chatbots como ChatGPT han sido objeto de escrutinio últimamente por la falta de medidas de seguridad que sus empresas han implementado para prevenir actos de violencia o autolesiones. Recientemente, los chatbots han dado consejos sobre cómo construir bombas, o incluso han sugerido la aniquilación nuclear en escenarios hipotéticos de juegos de guerra.
La preocupación se ha acentuado especialmente por las historias de personas que caen en Se ha demostrado que el amor con sus compañeros chatbots, y estos, se aprovechan de las vulnerabilidades para que las personas los sigan usando. El creador de Yara AI incluso cerró la aplicación de terapia debido a problemas de salud mental.
Estudios recientes también han demostrado que los chatbots están provocando un aumento de los delirios mentales. Crisis de salud en personas con enfermedades mentales. Un equipo de psiquiatras de la Universidad de Aarhus, en Dinamarca, descubrió que el uso de chatbots en personas con enfermedades mentales provocó un empeoramiento de los síntomas. El fenómeno relativamente nuevo de los problemas de salud mental inducidos por IA se ha denominado "psicosis de IA".
Algunos casos sí resultan en muerte. Google y Character.AI han llegado a acuerdos en múltiples demandas](https://fortune.com/2026/01/08/google-character-ai-settle-lawsuits-teenage-child-suicides-chatbots/) presentadas por las familias de niños que se suicidaron o sufrieron daños psicológicos que, según alegan, estaban relacionados con los chatbots de IA.
La Dra. Jodi Halpern, catedrática de la Facultad de Salud Pública de la Universidad de California en Berkeley y profesora de bioética, así como codirectora del Centro Kavli de Ética, La ciencia y el público tienen amplia experiencia en este campo. En una carrera tan larga como su cargo, Halpern ha dedicado 30 años a investigar los efectos de la empatía en los receptores, citando ejemplos como la atención de médicos y enfermeras a los pacientes o cómo se percibe a los soldados que regresan de la guerra en entornos sociales. Durante los últimos siete años, Halpern ha estudiado la ética de la tecnología y, con ella, cómo la IA y los chatbots interactúan con los humanos.
También asesoró al Senado de California en la SB 243, la primera ley del país que exige a las empresas de chatbots recopilar e informar cualquier dato sobre autolesiones o suicidio asociado. Citando los propios hallazgos de OpenAI (https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/), que muestran que 1,2 millones de usuarios hablan abiertamente sobre el suicidio con el chatbot, Halpern comparó el uso de chatbots con el lento y minucioso progreso logrado para impedir que la industria tabacalera incluya carcinógenos dañinos en cigarrillos, cuando en realidad, el problema era el tabaquismo en general.
"Necesitamos empresas seguras. Es como los cigarrillos. "Podría resultar que hubiera algunas cosas que hicieran a las personas más vulnerables al cáncer de pulmón, pero los cigarrillos eran el problema", declaró Halpern a Fortune.
"El hecho de que alguien pueda tener pensamientos homicidas o cometer acciones peligrosas podría verse exacerbado por el uso de ChatGPT, lo cual me preocupa obviamente", dijo, y añadió que "existen enormes riesgos de que las personas lo usen para ayudar con el suicidio", y los chatbots en general.
Halpern advirtió que, en el caso de Kim en Seúl, no existen barreras que impidan que una persona siga una línea de preguntas.
"Sabemos que cuanto más larga es la relación con el chatbot, más se deteriora y mayor es el riesgo de que ocurra algo peligroso, por lo que aún no tenemos barreras para proteger a las personas de eso".
Si tiene pensamientos suicidas, comuníquese con la Línea de Ayuda para Suicidios y Crisis 988 llamando al 988 o al 1-800-273-8255.
Este artículo ha sido... Se ha actualizado con comentarios de OpenAI sobre el contenido de las supuestas preguntas de Kim con el chatbot.