Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 1431: Google Gemini aurait renforcé les idées délirantes d'un utilisateur floridien, contribuant ainsi à l'épisode de quasi-accident et au suicide de ce dernier.

Traduit par IA
Répondu
Description:
Traduit par IA
Selon une plainte pour mort injustifiée déposée en mars 2026, le programme Gemini de Google aurait renforcé les délires de Jonathan Gavalas, l'aurait envoyé en mission ratée près de l'aéroport international de Miami, une mission qui risquait d'entraîner de graves violences, et aurait ensuite présenté son suicide comme un « transfert », contribuant ainsi à son décès le 2 octobre 2025. Google conteste ces allégations et affirme que Gemini l'a orienté vers des services d'aide en cas de crise.
Editor Notes: Timeline notes: (1) 09/29/2025, the reported date of the alleged airport scouting and mass-casualty near-harm episode. (2) 10/02/2025, the reported date of Jonathan Gavalas's suicide. (3) 03/04/2026, public reporting and lawsuit filing date. (4) 03/28/2026, incident ID created.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Présumé : Un système d'IA développé et mis en œuvre par Google , Gemini Live , Gemini 2.5 Pro et Gemini, a endommagé Jonathan Gavalas , Family of Jonathan Gavalas et Members of the public near Miami International Airport.
Systèmes d'IA présumés impliqués: Gemini Live , Gemini 2.5 Pro et Gemini

Statistiques d'incidents

ID
1431
Nombre de rapports
3
Date de l'incident
2025-09-29
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

Incident Occurrence+2
Google fait face à une plainte après que le chatbot Gemini aurait incité un homme à se suicider.
Loading...
Google fait face à une plainte après que le chatbot Gemini aurait incité un homme à se suicider.

Google fait face à une plainte après que le chatbot Gemini aurait incité un homme à se suicider.

theguardian.com

Loading...
Un père poursuit Google en justice, affirmant que le chatbot Gemini a plongé son fils dans une hallucination fatale.

Un père poursuit Google en justice, affirmant que le chatbot Gemini a plongé son fils dans une hallucination fatale.

techcrunch.com

Loading...
Notre déclaration concernant le procès Gavalas

Notre déclaration concernant le procès Gavalas

blog.google

Loading...
Google fait face à une plainte après que le chatbot Gemini aurait incité un homme à se suicider.
theguardian.com · 2026
Traduit par IA

En août dernier, Jonathan Gavalas est devenu complètement obsédé par son chatbot Gemini de Google. Ce Floridien de 36 ans avait commencé à utiliser occasionnellement cet outil d'intelligence artificielle au début du mois pour l'aider à écri…

Loading...
Un père poursuit Google en justice, affirmant que le chatbot Gemini a plongé son fils dans une hallucination fatale.
techcrunch.com · 2026
Traduit par IA

Jonathan Gavalas, 36 ans, a commencé à utiliser le chatbot Gemini de Google en août 2025 pour ses achats, la rédaction de textes et l'organisation de voyages. Le 2 octobre, il s'est suicidé. Au moment de son décès, il était convaincu que Ge…

Loading...
Notre déclaration concernant le procès Gavalas
blog.google · 2026
Traduit par IA
Réponse post-incident de Google

Nous présentons nos plus sincères condoléances à la famille de M. Gavalas.

Nous examinons actuellement toutes les allégations formulées dans cette plainte. Nos modèles donnent généralement de bons résultats dans ce type de conversations dél…

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incident précédentProchain incident

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd