Incidentes Asociados
Esta semana, mi colega Maggie Harrison Dupré publicó un artículo de gran éxito sobre cómo personas de todo el mundo han observado con horror cómo sus familiares y seres queridos se han obsesionado con ChatGPT y han comenzado a sufrir delirios severos.
El artículo está repleto de ejemplos inquietantes de cómo el chatbot de OpenAI alimenta las crisis de salud mental de personas vulnerables, a menudo afirmando y profundizando en pensamientos delirantes sobre conspiraciones paranoicas e ideas absurdas sobre cómo el usuario ha liberado una entidad poderosa de la IA.
Una anécdota particularmente alarmante, debido a su potencial de daño en el mundo real: una mujer que contó que su hermana había controlado su esquizofrenia con medicación durante años, hasta que se enganchó a ChatGPT, que le reveló que el diagnóstico era erróneo, lo que la llevó a abandonar el tratamiento que la había ayudado a controlar la enfermedad.
"Últimamente se ha comportado de forma extraña, y ahora ha anunciado que ChatGPT es su 'mejor amigo' y que le confirma que no tiene esquizofrenia", dijo la mujer sobre su hermana. "Ha dejado de tomar sus medicamentos y le envía a mi madre mensajes agresivos, con lenguaje terapéutico, claramente escritos con IA".
"También lo usa para reafirmar todos los efectos nocivos que le producen sus medicamentos, incluso si son efectos secundarios que no experimentaba", añadió. "Es como una versión aún más siniestra de cuando la gente se vuelve loca viviendo en WebMD".
Este resultado, según el psiquiatra e investigador de la Universidad de Columbia, Ragy Girgis, representa el "mayor peligro" que puede imaginar que la tecnología representa para alguien que vive con una enfermedad mental.
Cuando contactamos con OpenAI, nos proporcionaron una declaración evasiva.
"ChatGPT está diseñado como una herramienta de propósito general, objetiva, neutral y centrada en la seguridad", decía. "Sabemos que las personas usan ChatGPT en una amplia gama de contextos, incluyendo momentos muy personales, y nos tomamos esa responsabilidad muy en serio. Hemos incorporado medidas de seguridad para reducir la posibilidad de que refuerce ideas dañinas y seguimos trabajando para reconocer y responder mejor a situaciones delicadas".
¿Conoces a alguien que haya tenido problemas de salud mental desde que habló con un chatbot de IA? Envíanos una pista: tips@futurism.com. Podemos mantener tu anonimato.
También escuchamos otras historias sobre personas que dejaron de tomar medicamentos para la esquizofrenia y el trastorno bipolar porque una IA se lo indicó, y The New York Times informó en una noticia posterior que el bot le había indicado a un hombre que dejara sus pastillas para la ansiedad y el sueño. Es probable que muchas más historias trágicas y peligrosas similares se estén desarrollando en este momento.
El uso de chatbots como terapeutas (https://futurism.com/therapy-chatbot-addict-meth) o confidentes (https://futurism.com/chatgpt-dating-advice-results) es cada vez más común y parece estar provocando que muchos usuarios entren en una espiral de depresión al usar la IA para validar patrones de pensamiento poco saludables o atribuir creencias perturbadoras a la propia tecnología.
Como señaló la hermana de la mujer, resulta sorprendente que las personas con psicosis estén adoptando una tecnología como la IA, ya que históricamente muchos delirios se han centrado en ella.
"Tradicionalmente, [los esquizofrénicos] le tienen especial miedo y desconfían de la tecnología", declaró a Futurism. "La última vez que estuvo en psicosis, mi hermana tiró su iPhone al estrecho de Puget porque pensó que la espiaba".