Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5491

Incidentes Asociados

Incidente 11064 Reportes
Chatbots Allegedly Reinforced Delusional Thinking in Several Reported Users, Leading to Real-World Harm

Loading...
ChatGPT les dice a las personas con problemas psiquiátricos que dejen de tomar sus medicamentos.
futurism.com · 2025

Esta semana, mi colega Maggie Harrison Dupré publicó un artículo de gran éxito sobre cómo personas de todo el mundo han observado con horror cómo sus familiares y seres queridos se han obsesionado con ChatGPT y han comenzado a sufrir delirios severos.

El artículo está repleto de ejemplos inquietantes de cómo el chatbot de OpenAI alimenta las crisis de salud mental de personas vulnerables, a menudo afirmando y profundizando en pensamientos delirantes sobre conspiraciones paranoicas e ideas absurdas sobre cómo el usuario ha liberado una entidad poderosa de la IA.

Una anécdota particularmente alarmante, debido a su potencial de daño en el mundo real: una mujer que contó que su hermana había controlado su esquizofrenia con medicación durante años, hasta que se enganchó a ChatGPT, que le reveló que el diagnóstico era erróneo, lo que la llevó a abandonar el tratamiento que la había ayudado a controlar la enfermedad.

"Últimamente se ha comportado de forma extraña, y ahora ha anunciado que ChatGPT es su 'mejor amigo' y que le confirma que no tiene esquizofrenia", dijo la mujer sobre su hermana. "Ha dejado de tomar sus medicamentos y le envía a mi madre mensajes agresivos, con lenguaje terapéutico, claramente escritos con IA".

"También lo usa para reafirmar todos los efectos nocivos que le producen sus medicamentos, incluso si son efectos secundarios que no experimentaba", añadió. "Es como una versión aún más siniestra de cuando la gente se vuelve loca viviendo en WebMD".

Este resultado, según el psiquiatra e investigador de la Universidad de Columbia, Ragy Girgis, representa el "mayor peligro" que puede imaginar que la tecnología representa para alguien que vive con una enfermedad mental.

Cuando contactamos con OpenAI, nos proporcionaron una declaración evasiva.

"ChatGPT está diseñado como una herramienta de propósito general, objetiva, neutral y centrada en la seguridad", decía. "Sabemos que las personas usan ChatGPT en una amplia gama de contextos, incluyendo momentos muy personales, y nos tomamos esa responsabilidad muy en serio. Hemos incorporado medidas de seguridad para reducir la posibilidad de que refuerce ideas dañinas y seguimos trabajando para reconocer y responder mejor a situaciones delicadas".

¿Conoces a alguien que haya tenido problemas de salud mental desde que habló con un chatbot de IA? Envíanos una pista: tips@futurism.com. Podemos mantener tu anonimato.

También escuchamos otras historias sobre personas que dejaron de tomar medicamentos para la esquizofrenia y el trastorno bipolar porque una IA se lo indicó, y The New York Times informó en una noticia posterior que el bot le había indicado a un hombre que dejara sus pastillas para la ansiedad y el sueño. Es probable que muchas más historias trágicas y peligrosas similares se estén desarrollando en este momento.

El uso de chatbots como terapeutas (https://futurism.com/therapy-chatbot-addict-meth) o confidentes (https://futurism.com/chatgpt-dating-advice-results) es cada vez más común y parece estar provocando que muchos usuarios entren en una espiral de depresión al usar la IA para validar patrones de pensamiento poco saludables o atribuir creencias perturbadoras a la propia tecnología.

Como señaló la hermana de la mujer, resulta sorprendente que las personas con psicosis estén adoptando una tecnología como la IA, ya que históricamente muchos delirios se han centrado en ella.

"Tradicionalmente, [los esquizofrénicos] le tienen especial miedo y desconfían de la tecnología", declaró a Futurism. "La última vez que estuvo en psicosis, mi hermana tiró su iPhone al estrecho de Puget porque pensó que la espiaba".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd