Incident 1166: ChatGPT suggérerait le bromure de sodium comme substitut du chlorure, ce qui entraînerait un bromisme et une hospitalisation
Outils
Entités
Voir toutes les entitésStatistiques d'incidents
Risk Subdomain
3.1. False or misleading information
Risk Domain
- Misinformation
Entity
AI
Timing
Post-deployment
Intent
Unintentional
Rapports d'incidents
Chronologie du rapport
Note de l'éditeur de l'AIID : Cet article de revue à comité de lecture est partiellement abrégé. Pour la version complète, voir la source originale, notamment le tableau 1 et la section Références.
Résumé
L'ingestion de bromure peut entraîn…
Une étude de cas publiée ce mois-ci offre un récit édifiant et adapté à notre époque. Des médecins détaillent comment un homme a souffert d'une psychose causée par un empoisonnement après avoir suivi des conseils diététiques guidés par l'IA…

Un homme a consulté ChatGPT avant de modifier son régime alimentaire. Trois mois plus tard, après avoir suivi ce changement avec constance, il s'est retrouvé aux urgences avec de nouveaux symptômes psychiatriques inquiétants, notamment de l…
Une revue médicale américaine a mis en garde contre l'utilisation de ChatGPT pour obtenir des informations médicales après qu'un homme a développé une maladie rare suite à une interaction avec le chatbot concernant la suppression du sel de …
Hyderabad : À Hyderabad, des médecins mettent en garde la population contre le recours exclusif aux outils d'intelligence artificielle (IA) tels que ChatGPT pour obtenir des conseils médicaux. Ils insistent sur le fait que les patients, en …

