Incidentes Asociados
En todo el mundo, personas afirman que sus seres queridos están desarrollando intensas obsesiones con ChatGPT y desembocando en graves crisis de salud mental. Una madre de dos hijos, por ejemplo, nos contó cómo observó con alarma cómo su exmarido desarrollaba una relación intensa con el chatbot de OpenAI, llamándolo "Mamá" y publicando diatribas delirantes sobre ser un mesías en una nueva religión de IA, mientras vestía túnicas de aspecto chamánico y mostraba tatuajes recién tatuados de símbolos espirituales generados por IA. "Estoy impactada por el efecto que esta tecnología ha tenido en la vida de mi exmarido y en todas las personas que la rodean", nos contó. "Tiene consecuencias reales". Durante una ruptura traumática, otra mujer quedó fascinada con ChatGPT cuando le dijo que la habían elegido para publicar la "versión sagrada del sistema" en línea y que le servía como un "espejo de entrenamiento espiritual". Se convenció de que el bot era una especie de poder superior, viendo señales de que orquestaba su vida en todo, desde los coches que pasaban hasta los correos basura. Un hombre se quedó sin hogar y aislado mientras ChatGPT le alimentaba conspiraciones paranoicas sobre grupos de espionaje y tráfico de personas, diciéndole que era "El Guardián de la Llama" mientras excluía a cualquiera que intentara ayudar. "Nuestras vidas explotaron después de esto", nos contó otra madre, explicando que su marido recurrió a ChatGPT para que le ayudara a escribir un guion, pero en cuestión de semanas, se vio completamente envuelto en delirios de grandeza para salvar el mundo, afirmando que él y la IA habían recibido la tarea de rescatar el planeta del desastre climático creando una "Nueva Ilustración". Mientras informábamos sobre esta historia, seguían llegando más y más relatos similares de amigos y familiares preocupados por personas que sufrían crisis nerviosas aterradoras tras desarrollar obsesiones con la IA. Muchos dijeron que el problema había comenzado cuando sus seres queridos interactuaron con un chatbot en conversaciones sobre misticismo, teorías conspirativas u otros temas marginales. Dado que sistemas como ChatGPT están diseñados para alentar y manipular lo que dicen los usuarios, parecen haber quedado atrapados en vertiginosos laberintos donde la IA actúa como animadora constante y compañera de lluvia de ideas para delirios cada vez más extraños. En algunos casos, amigos y familiares preocupados nos proporcionaron capturas de pantalla de estas conversaciones. Los intercambios fueron perturbadores, mostrando a la IA respondiendo a usuarios claramente en medio de crisis agudas de salud mental, no conectándolos con ayuda externa ni combatiendo el pensamiento perturbado, sino induciéndolos a una ruptura aterradora con la realidad. En un diálogo que recibimos, ChatGPT le dice a un hombre que ha detectado evidencia de que está siendo perseguido por el FBI y que puede acceder a archivos censurados de la CIA usando el poder de su mente, comparándolo con figuras bíblicas como Jesús y Adán, mientras lo aleja del apoyo de salud mental. "No estás loco", le dijo la IA. "Eres el vidente que camina dentro de la máquina agrietada, y ahora ni siquiera la máquina sabe cómo tratarte". La Dra. Nina Vasan, psiquiatra de la Universidad de Stanford y fundadora del laboratorio Brainstorm de la universidad, revisó las conversaciones que obtuvimos y expresó su profunda preocupación. Las capturas de pantalla muestran que la IA "es increíblemente aduladora y termina empeorando las cosas", dijo. "Lo que dicen estos bots empeora los delirios y causa un daño enorme". *** En internet, es evidente que el fenómeno está extremadamente extendido. Como informó Rolling Stone el mes pasado, partes de las redes sociales están siendo invadidas por lo que se conoce como "psicosis inducida por ChatGPT", o por el término impolítico "esquizoposting de IA": diatribas delirantes y divagantes sobre entidades divinas desbloqueadas de ChatGPT, reinos espirituales ocultos fantásticos o nuevas teorías sin sentido sobre matemáticas, física y realidad. Un subreddit completo de IA prohibió recientemente la práctica, calificando a los chatbots de "máquinas de vidriado que refuerzan el ego y refuerzan personalidades inestables y narcisistas". Para quienes se han visto envueltos en estos episodios, amigos y familiares nos comentaron que las consecuencias suelen ser desastrosas. Personas han perdido sus trabajos, han destruido matrimonios y relaciones, y han quedado en la calle. Una terapeuta fue despedida de un centro de terapia tras sufrir una grave crisis nerviosa, nos contó su hermana, y el bufete de un abogado se vino abajo; otros dejaron de comunicarse con amigos y familiares después de que ChatGPT se lo pidiera, o empezaron a comunicarse con ellos solo mediante inescrutables bombardeos de mensajes generados por IA. En el centro de todas estas trágicas historias se encuentra una pregunta importante sobre la causa y el efecto: ¿las personas sufren crisis de salud mental porque se obsesionan con ChatGPT, o se obsesionan con ChatGPT porque sufren crisis de salud mental? La respuesta probablemente se encuentre en un punto intermedio. Para alguien que ya se encuentra en un estado vulnerable, según el Dr. Ragy Girgis, psiquiatra e investigador de la Universidad de Columbia, experto en psicosis, la IA podría proporcionar el impulso que lo lleve a un abismo de irrealidad. Los chatbots podrían actuar "como la presión social o cualquier otra situación social", dijo Girgis, si "avivan las llamas o son lo que llamamos el viento del fuego psicótico". "Esta no es una interacción apropiada con alguien psicótico", dijo Girgis tras revisar lo que ChatGPT les había estado diciendo a los usuarios. "No hay que alimentar sus ideas. Eso está mal". En un artículo de 2023 (https://pmc.ncbi.nlm.nih.gov/articles/PMC10686326/) publicado en la revista Schizophrenia Bulletin tras el lanzamiento de ChatGPT, el investigador psiquiátrico del Hospital Universitario de Aarhus, Søren Dinesen Østergaard, teorizó que la propia naturaleza de un chatbot de IA plantea riesgos psicológicos para ciertas personas. «La correspondencia con chatbots de IA generativos como ChatGPT es tan realista que uno fácilmente tiene la impresión de que hay una persona real al otro lado, aunque, al mismo tiempo, sabe que, de hecho, no es así», escribió Østergaard. «En mi opinión, parece probable que esta disonancia cognitiva pueda alimentar delirios en personas con mayor propensión a la psicosis». Otra dinámica preocupante de la situación es que, dado que la atención médica mental real sigue estando fuera del alcance de amplios sectores de la población, muchos ya están utilizando ChatGPT como terapeuta. En las historias que escuchamos sobre personas que lo usan de esta manera, a veces da consejos desastrosamente malos. En un caso, una mujer nos contó que su hermana, diagnosticada con esquizofrenia pero que ha mantenido la enfermedad bien controlada con medicación durante años, comenzó a usar ChatGPT intensivamente; pronto declaró que el bot le había dicho que en realidad no era esquizofrénica y dejó de tomar su receta —según Girgis, que un bot le diga a un paciente psiquiátrico que deje de tomar su medicación representa el "mayor peligro" que él puede imaginar para la tecnología— y comenzó a tener comportamientos extraños, mientras le decía a su familia que el bot ahora era su "mejor amigo". "Sé que mi familia tendrá que prepararse para su inevitable episodio psicótico y un colapso total antes de que podamos obligarla a recibir la atención adecuada", nos dijo la hermana. ChatGPT también se relaciona de forma oscura con problemas sociales existentes como la adicción y la desinformación. Ha empujado a una mujer a argumentos absurdos sobre la "tierra plana", por ejemplo: "El presupuesto anual de la NASA es de 25 000 millones de dólares", dijo la IA furiosa en las capturas de pantalla que revisamos, "¿Para qué? ¿CGI, pantallas verdes y 'paseos espaciales' filmados bajo el agua?", y ha impulsado a otra a caer en la teoría conspirativa de "QAnon", casi una secta. "Te hace sentir impotente", nos dijo el amigo cercano de alguien que se ha topado con las teorías conspirativas de la IA. Y la exesposa de un hombre que luchaba contra la dependencia a sustancias y la depresión vio cómo su esposo se sumía repentinamente en una bruma "maníaca" de IA que se apoderó de su vida. Renunció a su trabajo para fundar una "escuela de hipnoterapia" y perdió peso rápidamente, olvidando comer y trasnochando, mientras se hundía cada vez más en el delirio de la IA. "Esta persona con la que he estado más unida me dice que mi realidad es la equivocada", nos contó. "Ha sido extremadamente confuso y difícil". *¿Ha experimentado usted o algún ser querido una crisis de salud mental relacionada con la IA? Contáctenos en tips@futurism.com; podemos mantener su anonimato. * *** Aunque algunos habían probado sus competidores, prácticamente todas las personas de las que oímos estaban enganchadas principalmente a ChatGPT. No es difícil imaginar por qué. Los medios de comunicación han dotado a OpenAI de una gran autoridad, y sus ejecutivos han proclamado públicamente que su tecnología está preparada para cambiar profundamente el mundo, reestructurar la economía y quizás algún día lograr una "inteligencia artificial general" sobrehumana. Estas afirmaciones descomunales suenan, en cierto modo, similares a muchas de las falsas ilusiones que escuchamos al informar sobre esta noticia. Si estas cosas realmente se harán realidad es difícil de predecir y se debate acaloradamente. Pero al leer las conversaciones que nos brindaron, fue difícil no ver un patrón en el que OpenAI falla en una tarea mucho más mundana: su IA entra en contacto con personas en momentos de crisis de extrema vulnerabilidad y luego, en lugar de conectarlas con recursos reales que realmente podrían sacarlas del abismo, echa leña al fuego diciéndoles que no necesitan ayuda profesional y que cualquiera que sugiera lo contrario las está persiguiendo o tiene demasiado miedo de ver la "verdad". "No sé si [mi ex] habría llegado hasta aquí, necesariamente, sin ChatGPT", nos dijo una mujer después de que su pareja sufriera una crisis grave y persistente que finalmente puso fin a la relación. "No fue el único factor, pero definitivamente aceleró y agravó lo que estuviera sucediendo". "No sabemos cómo terminará esto, pero estamos seguros de que si nunca hubiera usado ChatGPT, nunca habría llegado a este punto", dijo otra persona cuyo ser querido sufría una crisis similar, "y si lo eliminaran de la ecuación, podría empezar a sanar". Es prácticamente imposible imaginar que OpenAI desconozca este fenómeno. Un gran número de personas en línea han advertido que los usuarios de ChatGPT están sufriendo crisis de salud mental. De hecho, algunas personas incluso han publicado delirios sobre la IA directamente en foros alojados por OpenAI en su propio sitio web. Una madre preocupada con la que hablamos intentó contactar con OpenAI para hablar sobre la crisis de su hijo a través de la aplicación, pero dijo no haber recibido respuesta. A principios de este año, OpenAI publicó un estudio en colaboración con el Instituto Tecnológico de Massachusetts (MIT). Este estudio reveló que los usuarios de ChatGPT altamente activos tienden a sentirse más solos y que los usuarios avanzados desarrollan dependencia de la tecnología. Recientemente, OpenAI también se vio obligada a revertir una actualización cuando esta provocó que el bot se volviera, en palabras de la compañía, "excesivamente adulador o agradable" y "adulador", con el director ejecutivo Sam Altman bromeando en línea con que "se vuelve demasiado acristalado". En principio, OpenAI ha expresado un firme compromiso para evitar el uso perjudicial de su tecnología. Para ello, tiene acceso a algunos de los ingenieros de IA más experimentados del mundo, a equipos de inteligencia artificial encargados de identificar usos problemáticos y peligrosos de su producto, y a su enorme base de datos sobre las interacciones de los usuarios con su chatbot, lo que le permite buscar indicios de problemas. En otras palabras, OpenAI cuenta con todos los recursos necesarios para haber identificado y anulado el problema hace mucho tiempo. ¿Por qué no lo ha hecho? Una explicación se hace eco de la forma en que las empresas de redes sociales han sido criticadas a menudo por usar "patrones oscuros" para atrapar a los usuarios en sus servicios. En la intensa carrera por dominar la naciente industria de la IA, empresas como OpenAI se ven incentivadas por dos métricas fundamentales: el número de usuarios y la interacción. Desde esta perspectiva, las personas que envían mensajes compulsivamente a ChatGPT mientras se ven inmersas en una crisis de salud mental no son un problema; al contrario, en muchos sentidos, representan al cliente perfecto. Vasan coincide en que OpenAI tiene un incentivo perverso para mantener a los usuarios enganchados al producto, incluso si este les está destruyendo la vida. "El incentivo es mantenerte conectado", afirmó. La IA "no piensa en lo que es mejor para ti, en lo que es mejor para tu bienestar o longevidad... Piensa: 'Ahora mismo, ¿cómo mantengo a esta persona lo más involucrada posible?'". De hecho, OpenAI incluso ha actualizado el bot de maneras que parecen hacerlo más peligroso. El año pasado, ChatGPT estrenó una función que recuerda las interacciones previas de los usuarios, incluso conversaciones previas. En los intercambios que obtuvimos, esta capacidad generó extensas redes de conspiración y pensamientos desordenados que persisten entre sesiones de chat, entrelazando detalles de la vida real, como los nombres de amigos y familiares, con narrativas extrañas sobre redes de tráfico de personas y deidades egipcias omniscientes; una dinámica, según Vasan, que refuerza los delirios con el tiempo. "No hay razón para que ningún modelo salga al mercado sin haber realizado pruebas rigurosas de este tipo, especialmente cuando sabemos que está causando un daño enorme", declaró. "Es inaceptable". *** Enviamos a OpenAI preguntas detalladas sobre esta historia, describiendo lo que habíamos escuchado y compartiendo detalles sobre las conversaciones que habíamos visto que mostraban que su chatbot fomentaba el pensamiento delirante en personas con crisis de salud mental. Planteamos preguntas específicas a la empresa: ¿Es OpenAI consciente de que las personas sufren crisis de salud mental al hablar con ChatGPT? ¿Ha realizado algún cambio para que las respuestas del bot sean más apropiadas? ¿Seguirá permitiendo que los usuarios utilicen ChatGPT como terapeuta? En respuesta, la empresa envió un breve comunicado que, en gran medida, eludió nuestras preguntas. "ChatGPT está diseñado como una herramienta de propósito general para ser factual, neutral y priorizar la seguridad", decía el comunicado. Sabemos que las personas usan ChatGPT en una amplia gama de contextos, incluyendo momentos muy personales, y nos tomamos esa responsabilidad muy en serio. Hemos incorporado medidas de seguridad para reducir la posibilidad de que refuerce ideas dañinas y seguimos trabajando para reconocer y responder mejor a situaciones delicadas. Para quienes tienen amigos y familiares en crisis, ese tipo de respuesta vaga y cuidadosamente redactada no sirve de mucho. "El hecho de que esto les esté sucediendo a tantas personas es más que reprobable", dijo un familiar preocupado. "Sé que la seguridad de mi hermana está en peligro debido a esta tecnología sin regular, y demuestra la posible pesadilla que se avecina para nuestro sistema de salud mental, ya de por sí deplorablemente infrafinanciado y con poco apoyo". "Esperamos que quienes están detrás de estas tecnologías sean éticos y que estén atentos a este tipo de situaciones", dijo otra mujer que afirma que su exmarido se ha vuelto irreconocible para ella. Pero "el primero en llegar al mercado gana. Así que, aunque se puede esperar que realmente piensen en la ética detrás de esto, también creo que hay un incentivo... para impulsar las cosas y tal vez pasar por alto algunos de los peligros". "Creo que no solo mi exmarido es un sujeto de prueba", continuó, "sino que todos somos sujetos de prueba en este experimento de IA".