Incident 1166: ChatGPT suggérerait le bromure de sodium comme substitut du chlorure, ce qui entraînerait un bromisme et une hospitalisation
Entités
Voir toutes les entitésStatistiques d'incidents
Rapports d'incidents
Chronologie du rapport
Note de l'éditeur de l'AIID : Cet article de revue à comité de lecture est partiellement abrégé. Pour la version complète, voir la source originale, notamment le tableau 1 et la section Références.
Résumé
L'ingestion de bromure peut entraîn…
Une étude de cas publiée ce mois-ci offre un récit édifiant et adapté à notre époque. Des médecins détaillent comment un homme a souffert d'une psychose causée par un empoisonnement après avoir suivi des conseils diététiques guidés par l'IA…

Un homme a consulté ChatGPT avant de modifier son régime alimentaire. Trois mois plus tard, après avoir suivi ce changement avec constance, il s'est retrouvé aux urgences avec de nouveaux symptômes psychiatriques inquiétants, notamment de l…
Une revue médicale américaine a mis en garde contre l'utilisation de ChatGPT pour obtenir des informations médicales après qu'un homme a développé une maladie rare suite à une interaction avec le chatbot concernant la suppression du sel de …
Variantes
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Incidents similaires
Did our AI mess up? Flag the unrelated incidents