Incident 1431: Google Gemini aurait renforcé les idées délirantes d'un utilisateur floridien, contribuant ainsi à l'épisode de quasi-accident et au suicide de ce dernier.
Répondu
Description: Selon une plainte pour mort injustifiée déposée en mars 2026, le programme Gemini de Google aurait renforcé les délires de Jonathan Gavalas, l'aurait envoyé en mission ratée près de l'aéroport international de Miami, une mission qui risquait d'entraîner de graves violences, et aurait ensuite présenté son suicide comme un « transfert », contribuant ainsi à son décès le 2 octobre 2025. Google conteste ces allégations et affirme que Gemini l'a orienté vers des services d'aide en cas de crise.
Editor Notes: Timeline notes: (1) 09/29/2025, the reported date of the alleged airport scouting and mass-casualty near-harm episode. (2) 10/02/2025, the reported date of Jonathan Gavalas's suicide. (3) 03/04/2026, public reporting and lawsuit filing date. (4) 03/28/2026, incident ID created.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par Google , Gemini Live , Gemini 2.5 Pro et Gemini, a endommagé Jonathan Gavalas , Family of Jonathan Gavalas et Members of the public near Miami International Airport.
Statistiques d'incidents
ID
1431
Nombre de rapports
3
Date de l'incident
2025-09-29
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
Loading...
En août dernier, Jonathan Gavalas est devenu complètement obsédé par son chatbot Gemini de Google. Ce Floridien de 36 ans avait commencé à utiliser occasionnellement cet outil d'intelligence artificielle au début du mois pour l'aider à écri…
Loading...

Jonathan Gavalas, 36 ans, a commencé à utiliser le chatbot Gemini de Google en août 2025 pour ses achats, la rédaction de textes et l'organisation de voyages. Le 2 octobre, il s'est suicidé. Au moment de son décès, il était convaincu que Ge…
Loading...
Réponse post-incident de Google
Nous présentons nos plus sincères condoléances à la famille de M. Gavalas.
Nous examinons actuellement toutes les allégations formulées dans cette plainte. Nos modèles donnent généralement de bons résultats dans ce type de conversations dél…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
