Description: OpenAI's AI-powered transcription tool Whisper, used to translate and transcribe audio content such as patient consultations with doctors, is advertised as having near “human level robustness and accuracy.” However, software engineers, developers and academic researchers have alleged that it is prone to making up chunks of text or even entire sentences and that some of the hallucinations can include racial commentary, violent rhetoric, and even imagined medical treatments.
Entités
Voir toutes les entitésAlleged: OpenAI developed and deployed an AI system, which harmed patients , Patients reliant on Whisper et Medical practitioners reliant on Whisper.
Statistiques d'incidents
ID
827
Nombre de rapports
1
Date de l'incident
2024-10-26
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
apnews.com · 2024
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
SAN FRANCISCO (AP) --- Le géant de la technologie OpenAI a vanté les mérites de son outil de transcription Whisper, basé sur l'intelligence artificielle, comme ayant une « robustesse et une précision proches de celles des humains ».
Mais Wh…
Variantes
Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Incidents similaires
Did our AI mess up? Flag the unrelated incidents