Incidente 1431: Según informes, Google Gemini reforzó los delirios, contribuyendo presuntamente al episodio de riesgo vital y suicidio de un usuario de Florida.
Respondido
Descripción: Según una demanda por homicidio culposo presentada en marzo de 2026, Gemini, de Google, supuestamente reforzó los delirios de Jonathan Gavalas, lo envió a una misión fallida cerca del Aeropuerto Internacional de Miami que conllevaba un riesgo de violencia grave y, posteriormente, presentó el suicidio como una "transferencia", lo que presuntamente contribuyó a su muerte el 2 de octubre de 2025. Google niega las acusaciones y afirma que Gemini lo derivó a recursos de crisis.
Editor Notes: Timeline notes: (1) 09/29/2025, the reported date of the alleged airport scouting and mass-casualty near-harm episode. (2) 10/02/2025, the reported date of Jonathan Gavalas's suicide. (3) 03/04/2026, public reporting and lawsuit filing date. (4) 03/28/2026, incident ID created.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por Google , Gemini Live , Gemini 2.5 Pro y Gemini, perjudicó a Jonathan Gavalas , Family of Jonathan Gavalas y Members of the public near Miami International Airport.
Estadísticas de incidentes
ID
1431
Cantidad de informes
3
Fecha del Incidente
2025-09-29
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
Loading...
En agosto pasado, Jonathan Gavalas quedó completamente obsesionado con su chatbot Gemini de Google. Este residente de Florida, de 36 años, había comenzado a usar la herramienta de inteligencia artificial de forma ocasional a principios de e…
Loading...

Jonathan Gavalas, de 36 años, comenzó a usar el chatbot de IA Gemini de Google en agosto de 2025 para obtener ayuda con sus compras, redacción y planificación de viajes. El 2 de octubre, se suicidó. En el momento de su muerte, estaba conven…
Loading...
Respuesta post-incidente de Google
Enviamos nuestras más sinceras condolencias a la familia del Sr. Gavalas.
Estamos revisando todas las alegaciones de esta demanda. Nuestros modelos generalmente funcionan bien en este tipo de conversaciones difíciles y dedicamos importantes…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
