Description: Researchers at Cornell reportedly found that OpenAI's Whisper, a speech-to-text system, can hallucinate violent language and fabricated details, especially with long pauses in speech, such as from those with speech impairments. Analyzing 13,000 clips, they determined 1% contained harmful hallucinations. These errors pose risks in hiring, legal trials, and medical documentation. The study suggests improving model training to reduce these hallucinations for diverse speaking patterns.
Alleged: OpenAI developed an AI system deployed by OpenAI , Whisper , Companies using Whisper と Organizations integrating Whisper into customer service systems, which harmed Individuals with speech impairments , Users whose speech is misinterpreted by Whisper , Professionals relying on accurate transcriptions と General public.
インシデントのステータス
インシデントID
732
レポート数
1
インシデント発生日
2024-02-12
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
news.cornell.edu · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Speak a little too haltingly and with long pauses, and a speech-to-text transcriber might put harmful, violent words in your mouth, Cornell researchers have discovered.
OpenAI's Whisper -- an artificial intelligence-powered speech recognit…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents