Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 1281: Des effets néfastes présumés sur la santé ont été signalés suite à l'utilisation de conseils médicaux prétendument générés par ChatGPT à Hyderabad.

Traduit par IA
Description:
Traduit par IA
Des rapports en provenance d'Hyderabad font état de deux cas présumés de préjudices subis par des patients après avoir suivi des conseils médicaux prétendument générés par ChatGPT au lieu de l'avis d'un médecin. Un patient ayant bénéficié d'une transplantation rénale aurait interrompu son traitement post-transplantation suite à une suggestion d'un chatbot et aurait subi un rejet de greffe. Dans un autre cas, un homme diabétique aurait développé une hyponatrémie sévère après avoir suivi un régime sans sel conseillé par un chatbot.
Editor Notes: The reporting on this incident seems to draw on three discrete harm events to point to a wider concern in Hyderabad. The case involving an unnamed kidney transplant patient and an elderly man with diabetes are Hyderabad-specific, whereas the third case that seems to appear in the reporting is a reference to a New York case, Incident 1166: ChatGPT Reportedly Suggests Sodium Bromide as Chloride Substitute, Leading to Bromism and Hospitalization.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Présumé : Un système d'IA développé et mis en œuvre par OpenAI et ChatGPT, a endommagé Unnamed patient with diabetes in Hyderabad , Unnamed kidney transplant patient in Hyderabad , OpenAI users , General public of India , General public of Hyderabad , General public et ChatGPT users.
Système d'IA présumé impliqué: ChatGPT

Statistiques d'incidents

ID
1281
Nombre de rapports
2
Date de l'incident
2025-11-10
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

+2
ChatGPT n'est pas votre médecin : des médecins d'Hyderabad mettent en garde après que des patients ont subi des préjudices suite à des conseils prodigués par une IA.
Loading...
ChatGPT n'est pas votre médecin : des médecins d'Hyderabad mettent en garde après que des patients ont subi des préjudices suite à des conseils prodigués par une IA.

ChatGPT n'est pas votre médecin : des médecins d'Hyderabad mettent en garde après que des patients ont subi des préjudices suite à des conseils prodigués par une IA.

completeaitraining.com

Loading...
Les médecins mettent en garde contre le recours aux outils d'IA pour obtenir des conseils médicaux.

Les médecins mettent en garde contre le recours aux outils d'IA pour obtenir des conseils médicaux.

timesofindia.indiatimes.com

Loading...
ChatGPT n'est pas votre médecin : des médecins d'Hyderabad mettent en garde après que des patients ont subi des préjudices suite à des conseils prodigués par une IA.
completeaitraining.com · 2025
Traduit par IA

Les médecins exhortent les patients à ne plus utiliser les chatbots d'IA comme substitut aux soins médicaux.


À Hyderabad, les cliniciens constatent une forte augmentation du nombre de patients qui suivent les conseils génériques de chatbot…

Loading...
Les médecins mettent en garde contre le recours aux outils d'IA pour obtenir des conseils médicaux.
timesofindia.indiatimes.com · 2025
Traduit par IA

Hyderabad : À Hyderabad, des médecins mettent en garde la population contre le recours exclusif aux outils d'intelligence artificielle (IA) tels que ChatGPT pour obtenir des conseils médicaux. Ils insistent sur le fait que les patients, en …

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Selected by our editors

ChatGPT Reportedly Suggests Sodium Bromide as Chloride Substitute, Leading to Bromism and Hospitalization

Aug 2025 · 5 rapports
Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Loading...
Collection of Robotic Surgery Malfunctions

Collection of Robotic Surgery Malfunctions

Jul 2015 · 12 rapports
Loading...
Kidney Testing Method Allegedly Underestimated Risk of Black Patients

Kidney Testing Method Allegedly Underestimated Risk of Black Patients

Mar 1999 · 3 rapports
Loading...
Racist AI behaviour is not a new problem

Racist AI behaviour is not a new problem

Mar 1998 · 4 rapports
Incident précédentProchain incident

Incidents similaires

Selected by our editors

ChatGPT Reportedly Suggests Sodium Bromide as Chloride Substitute, Leading to Bromism and Hospitalization

Aug 2025 · 5 rapports
Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Loading...
Collection of Robotic Surgery Malfunctions

Collection of Robotic Surgery Malfunctions

Jul 2015 · 12 rapports
Loading...
Kidney Testing Method Allegedly Underestimated Risk of Black Patients

Kidney Testing Method Allegedly Underestimated Risk of Black Patients

Mar 1999 · 3 rapports
Loading...
Racist AI behaviour is not a new problem

Racist AI behaviour is not a new problem

Mar 1998 · 4 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 353a03d