Description: Google's search AI erroneously claimed no African country begins with 'K', along with various other geography-and-letter-based questions, misguiding users with a flawed featured snippet. Originating from ChatGPT-written posts and inaccurately scraped by Google, this incident highlights issues in AI-generated content and misinformation in search results, compromising Google's reliability as an information source.
Editor Notes: Incident 609 is occasionally being referenced in reports associated with Incident 693.
インシデントのステータス
インシデントID
609
レポート数
2
インシデント発生日
2023-08-16
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
theatlantic.com · 2023
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
There is no easy way to explain the sum of Google’s knowledge. It is ever-expanding. Endless. A growing web of hundreds of billions of websites, more data than even 100,000 of the most expensive iPhones mashed together could possibly store.…
futurism.com · 2023
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Google's AI-powered search doesn't understand geography. Or, apparently, the alphabet. And definitely not both at the same time.
It all started when a Bluesky user declared that Google is now "dead." They included a screenshot of Google's f…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください