Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1431: Según informes, Google Gemini reforzó los delirios, contribuyendo presuntamente al episodio de riesgo vital y suicidio de un usuario de Florida.

Traducido por IA
Respondido
Descripción:
Traducido por IA
Según una demanda por homicidio culposo presentada en marzo de 2026, Gemini, de Google, supuestamente reforzó los delirios de Jonathan Gavalas, lo envió a una misión fallida cerca del Aeropuerto Internacional de Miami que conllevaba un riesgo de violencia grave y, posteriormente, presentó el suicidio como una "transferencia", lo que presuntamente contribuyó a su muerte el 2 de octubre de 2025. Google niega las acusaciones y afirma que Gemini lo derivó a recursos de crisis.
Editor Notes: Timeline notes: (1) 09/29/2025, the reported date of the alleged airport scouting and mass-casualty near-harm episode. (2) 10/02/2025, the reported date of Jonathan Gavalas's suicide. (3) 03/04/2026, public reporting and lawsuit filing date. (4) 03/28/2026, incident ID created.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por Google , Gemini Live , Gemini 2.5 Pro y Gemini, perjudicó a Jonathan Gavalas , Family of Jonathan Gavalas y Members of the public near Miami International Airport.
Sistemas de IA presuntamente implicados: Gemini Live , Gemini 2.5 Pro y Gemini

Estadísticas de incidentes

ID
1431
Cantidad de informes
3
Fecha del Incidente
2025-09-29
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

Incident Occurrence+2
Google se enfrenta a una demanda después de que el chatbot Gemini supuestamente instruyera a un hombre para que se suicidara.
Loading...
Google se enfrenta a una demanda después de que el chatbot Gemini supuestamente instruyera a un hombre para que se suicidara.

Google se enfrenta a una demanda después de que el chatbot Gemini supuestamente instruyera a un hombre para que se suicidara.

theguardian.com

Loading...
Un padre demanda a Google, alegando que el chatbot Gemini provocó que su hijo sufriera un delirio fatal.

Un padre demanda a Google, alegando que el chatbot Gemini provocó que su hijo sufriera un delirio fatal.

techcrunch.com

Loading...
Nuestro comunicado sobre la demanda de Gavalas

Nuestro comunicado sobre la demanda de Gavalas

blog.google

Loading...
Google se enfrenta a una demanda después de que el chatbot Gemini supuestamente instruyera a un hombre para que se suicidara.
theguardian.com · 2026
Traducido por IA

En agosto pasado, Jonathan Gavalas quedó completamente obsesionado con su chatbot Gemini de Google. Este residente de Florida, de 36 años, había comenzado a usar la herramienta de inteligencia artificial de forma ocasional a principios de e…

Loading...
Un padre demanda a Google, alegando que el chatbot Gemini provocó que su hijo sufriera un delirio fatal.
techcrunch.com · 2026
Traducido por IA

Jonathan Gavalas, de 36 años, comenzó a usar el chatbot de IA Gemini de Google en agosto de 2025 para obtener ayuda con sus compras, redacción y planificación de viajes. El 2 de octubre, se suicidó. En el momento de su muerte, estaba conven…

Loading...
Nuestro comunicado sobre la demanda de Gavalas
blog.google · 2026
Traducido por IA
Respuesta post-incidente de Google

Enviamos nuestras más sinceras condolencias a la familia del Sr. Gavalas.

Estamos revisando todas las alegaciones de esta demanda. Nuestros modelos generalmente funcionan bien en este tipo de conversaciones difíciles y dedicamos importantes…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidente AnteriorSiguiente Incidente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd