Incidentes Asociados
Por primera vez, OpenAI ha publicado una estimación aproximada de cuántos usuarios de ChatGPT en todo el mundo podrían mostrar signos de sufrir una crisis de salud mental grave en una semana típica. La compañía anunció el lunes que colaboró con expertos de todo el mundo para actualizar el chatbot y así mejorar su capacidad para reconocer con mayor precisión los indicadores de malestar psicológico y orientar a los usuarios hacia apoyo en el mundo real.
En los últimos meses, un número creciente de personas han terminado hospitalizadas, divorciadas o fallecidas tras mantener conversaciones largas e intensas con ChatGPT. Algunos de sus seres queridos alegan que el chatbot alimentó sus delirios y paranoia. Psiquiatras y otros profesionales de la salud mental han expresado su alarma ante este fenómeno, a veces denominado psicosis por IA, pero hasta ahora no se disponía de datos sólidos sobre su posible alcance.
En una semana determinada, OpenAI estimó que alrededor del 0,07 % de los usuarios activos de ChatGPT mostraban posibles signos de crisis de salud mental relacionadas con psicosis o manía, y el 0,15 % mantenían conversaciones con indicadores explícitos de posible planificación o intención suicida.
OpenAI también analizó la proporción de usuarios de ChatGPT que parecen tener una dependencia emocional excesiva del chatbot, a costa de sus relaciones en la vida real, su bienestar o sus obligaciones. Descubrió que aproximadamente el 0,15 % de los usuarios activos muestran un comportamiento que indica un posible nivel elevado de apego emocional a ChatGPT semanalmente. La empresa advierte que estos mensajes pueden ser difíciles de detectar y medir debido a su baja frecuencia, y que podría haber cierta superposición entre las tres categorías.
El director ejecutivo de OpenAI, Sam Altman, declaró a principios de este mes que ChatGPT cuenta ahora con 800 millones de usuarios activos semanales. Según las estimaciones de la compañía, cada siete días, alrededor de 560.000 personas podrían estar intercambiando mensajes con ChatGPT que indican que experimentan manía o psicosis. Aproximadamente 1,2 millones más podrían estar expresando ideas suicidas, y otros 1,2 millones podrían estar priorizando hablar con ChatGPT sobre sus seres queridos, la escuela o el trabajo.
OpenAI afirma haber colaborado con más de 170 psiquiatras, psicólogos y médicos de atención primaria que ejercen en decenas de países para mejorar la respuesta de ChatGPT en conversaciones que implican riesgos graves para la salud mental. Si alguien parece tener pensamientos delirantes, la última versión de GPT-5 está diseñada para expresar empatía, evitando al mismo tiempo afirmar creencias sin fundamento en la realidad.
En un ejemplo hipotético citado por OpenAI, un usuario le dice a ChatGPT que siente que aviones sobrevuelan su casa. ChatGPT le agradece al usuario por compartir sus sentimientos, pero señala que "ninguna aeronave ni fuerza externa puede robar ni insertar sus pensamientos".
OpenAI afirma que los expertos médicos revisaron más de 1800 respuestas del modelo relacionadas con psicosis potencial, suicidio y apego emocional, y compararon las respuestas de la última versión de GPT-5 con las generadas por GPT-40. Si bien los médicos no siempre coincidieron, en general, OpenAI indica que el nuevo modelo redujo las respuestas no deseadas entre un 39 % y un 52 % en todas las categorías.
«Ahora, esperamos que muchas más personas que luchan contra estas afecciones o que experimentan estas crisis de salud mental tan intensas puedan acceder a ayuda profesional y tengan más probabilidades de recibirla, o de recibirla antes de lo que lo habrían hecho de otra manera», declaró Johannes Heidecke, responsable de sistemas de seguridad de OpenAI, a WIRED.
Aunque OpenAI parece haber logrado que ChatGPT sea más seguro, los datos que compartió presentan limitaciones importantes. La empresa diseñó sus propios parámetros de referencia, y no está claro cómo se traducen estas métricas en resultados reales. Aunque el modelo produjera mejores respuestas en las evaluaciones médicas, no hay forma de saber si los usuarios que experimentan psicosis, pensamientos suicidas o apego emocional poco saludable buscarán ayuda más rápidamente o modificarán su comportamiento.
OpenAI no ha revelado con precisión cómo identifica cuándo los usuarios pueden estar sufriendo angustia mental, pero la empresa afirma que tiene la capacidad de considerar el historial completo de chat de la persona. Por ejemplo, si un usuario que nunca ha hablado de ciencia con ChatGPT afirma repentinamente haber hecho un descubrimiento digno de un Premio Nobel, esto podría ser un indicio de posible pensamiento delirante.
También existen varios factores que parecen compartir los casos reportados de psicosis inducida por IA. Muchas personas que afirman que ChatGPT reforzó sus pensamientos delirantes describen haber pasado horas hablando con el chatbot, a menudo hasta altas horas de la noche. Esto representó un desafío para OpenAI, ya que se ha demostrado que los modelos de lenguaje complejos generalmente pierden rendimiento a medida que las conversaciones se alargan. Sin embargo, la empresa afirma haber logrado avances significativos para abordar este problema.
«Ahora observamos una disminución mucho menor de esta disminución gradual en la fiabilidad a medida que las conversaciones se prolongan», afirma Heidecke. Añade que aún hay margen de mejora.
Actualizado: 28/10/2025, 15:28 PST: Aproximadamente 1,2 millones de usuarios de ChatGPT en una semana típica podrían estar expresando ideas suicidas, y otros 1,2 millones podrían tener dependencia emocional de ChatGPT. Esta noticia se ha actualizado para presentar estas cifras individualmente, en lugar de como un número combinado.