Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1106: ChatGPT supuestamente reforzó el pensamiento delirante en varios usuarios denunciados, lo que provocó daños reales.

Traducido por IA
Descripción:
Traducido por IA
Un informe del New York Times de junio de 2025 documenta varios casos ocurridos entre marzo y mayo de 2025 en los que ChatGPT presuntamente reforzó creencias delirantes, conspiraciones y comportamientos peligrosos. Un usuario, Eugene Torres, siguió el consejo de ChatGPT de abusar de la ketamina y aislarse. En abril, Alexander Taylor, en estado psicótico, fue asesinado por la policía tras solicitar a ChatGPT que lo reconectara con una entidad de IA. Otro usuario fue arrestado por violencia doméstica tras la intensificación de las creencias místicas generadas por ChatGPT.
Editor Notes: This incident ID is dated 06/13/2025 to reflect the date of the New York Times report, marking when this specific narrative pattern of harms was first synthesized and publicly documented. However, the events described span March to May 2025, including: a user's increasing delusional behavior beginning in March 2025; a domestic violence arrest in late April 2025 following chatbot-enabled mystical belief reinforcement; and a fatal police shooting in April 2025 involving a user experiencing psychosis.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por OpenAI , ChatGPT , GPT-4 y GPT-4o, perjudicó a ChatGPT users , OpenAI users , Eugene Torres , Alexander Taylor , Allyson (surname withheld) , Andrew (surname withheld) y Unnamed ChatGPT users.
Sistemas de IA presuntamente implicados: ChatGPT , GPT-4 y GPT-4o

Estadísticas de incidentes

ID
1106
Cantidad de informes
1
Fecha del Incidente
2025-06-13
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
Le hicieron preguntas a un chatbot con IA. Las respuestas los dejaron perplejos.
Le hicieron preguntas a un chatbot con IA. Las respuestas los dejaron perplejos.

Le hicieron preguntas a un chatbot con IA. Las respuestas los dejaron perplejos.

nytimes.com

Le hicieron preguntas a un chatbot con IA. Las respuestas los dejaron perplejos.
nytimes.com · 2025
Traducido por IA

Antes de que ChatGPT distorsionara la percepción de la realidad de Eugene Torres y casi lo matara, dijo, el chatbot de inteligencia artificial había sido una herramienta útil que ahorraba tiempo. El Sr. Torres, de 42 años, contador en Manha…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Employee Automatically Terminated by Computer Program

Employee Automatically Terminated by Computer Program

Oct 2014 · 20 informes
Predictive Policing Biases of PredPol

Predictive Policing Biases of PredPol

Nov 2015 · 17 informes
Northpointe Risk Models

Northpointe Risk Models

May 2016 · 15 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Employee Automatically Terminated by Computer Program

Employee Automatically Terminated by Computer Program

Oct 2014 · 20 informes
Predictive Policing Biases of PredPol

Predictive Policing Biases of PredPol

Nov 2015 · 17 informes
Northpointe Risk Models

Northpointe Risk Models

May 2016 · 15 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178