Journal des citations pour l'incident 693

Répondu
Description: Google's AI search engine has reportedly been providing users with confidently incorrect and often harmful information. Reports highlight numerous inaccuracies, including misleading health advice and dangerous cooking suggestions. For example, it has falsely claimed Barack Obama as the first Muslim U.S. President, reflecting fringe conspiracy theories, or recommending that glue can be an ingredient in pizza.
Editor Notes: Reports about Incident 693 occasionally reference reports associated with Incident 609.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique
Présumé : Un système d'IA développé et mis en œuvre par Google, endommagé Google users and General public.

Statistiques d'incidents

ID
693
Nombre de rapports
7
Date de l'incident
2024-05-14
Editeurs
Daniel Atherton
Applied Taxonomies
La recherche vidéo Gemini de Google commet une erreur factuelle dans la démo
theverge.com · 2024

Google a fait beaucoup de bruit à propos de sa Gemini AI prenant en charge la recherche lors de son Conférence I/O aujourd'hui, mais l'une de ses démos les plus flashy a été une nouvelle fois marquée par le jamais - présente le défaut fatal…

translated-fr-Google promised a better search experience — now it’s telling us to put glue on our pizza
theverge.com · 2024

translated-fr-Imagine this: you've carved out an evening to unwind and decide to make a homemade pizza. You assemble your pie, throw it in the oven, and are excited to start eating. But once you get ready to take a bite of your oily creatio…

La fonction de recherche IA de Google suggère d'utiliser de la colle pour que le fromage colle à une pizza
businessinsider.com · 2024

La nouvelle fonctionnalité de recherche de Google, AI Overviews, semble mal fonctionner.

L'outil, qui donne des résumés des résultats de recherche générés par l'IA, semblait demander à un utilisateur de mettre de la colle sur la pizza lorsq…

translated-fr-Google’s AI Is Churning Out a Deluge of Completely Inaccurate, Totally Confident Garbage
futurism.com · 2024

translated-fr-Google's AI search, which swallows up web results and delivers them to users in a regurgitated package, delivers each of its AI-paraphrased answers to user queries in a concise, coolly confident tone. Just one tiny problem: it…

Pourquoi l'IA de Google pourrait vous recommander de mélanger de la colle à votre pizza
washingtonpost.com · 2024

Vous avez probablement le sentiment que les nouvelles formes d’intelligence artificielle peuvent être stupides comme de la pierre.

Des informations hilarantes et erronées provenant de la nouvelle IA de Google vous montrent à quel point c'es…

L'IA de Google Les erreurs de recherche provoquent une fureur en ligne
nytimes.com · 2024

La semaine dernière, Google a dévoilé son plus grand changement en matière de recherche depuis des années présentant de nouvelles capacités d'intelligence artificielle qui répondre aux questions des gens dans le cadre de la tentative de l'e…

translated-fr-Google Rolls Back A.I. Search Feature After Flubs and Flaws
nytimes.com · 2024
Réponse post-incident de Nico Grant

translated-fr-When Sundar Pichai, Google's chief executive, introduced a generative artificial intelligence feature for the company's search engine last month, he and his colleagues demonstrated the new capability with six text-based querie…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.