Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3899

Incidents associés

Incident 6937 Rapports
Google AI Reportedly Delivering Confidently Incorrect and Harmful Information

Loading...
L'IA de Google Les erreurs de recherche provoquent une fureur en ligne
nytimes.com · 2024

La semaine dernière, Google a dévoilé son plus grand changement en matière de recherche depuis des années présentant de nouvelles capacités d'intelligence artificielle qui répondre aux questions des gens dans le cadre de la tentative de l'entreprise de rattraper ses concurrents Microsoft et OpenAI.

La nouvelle technologie a depuis généré une litanie de contrevérités et d’erreurs – y compris la recommandation de colle dans une recette de pizza et l’ingestion de roches pour les nutriments – donnant un œil au beurre noir à Google et provoquant une fureur en ligne.

Les réponses incorrectes dans la fonctionnalité, appelée AI Overview, ont miné la confiance dans un moteur de recherche vers lequel plus de deux milliards de personnes se tournent pour obtenir des informations faisant autorité. Et tandis que d'autres I.A. chatbots dire des mensonges et agir bizarrement, la réaction négative a démontré que Google subit davantage de pression pour intégrer en toute sécurité I.A. dans son moteur de recherche.

Le lancement s'étend également à une tendance de Google ayant des problèmes avec sa nouvelle technologie d'IA. fonctionnalités immédiatement après leur déploiement. En février 2023, lorsque Google a annoncé Bard, un chatbot pour lutter contre ChatGPT, il a partagé des informations incorrectes sur l'espace. La valeur marchande de l'entreprise a ensuite chuté de 100 milliards de dollars.

En février dernier, la société a lancé le successeur de Bard, Gemini, un chatbot capable de générer des images et d'agir en tant qu'assistant numérique à commande vocale. Les utilisateurs se sont rapidement rendu compte que le système refusait de générer des images de personnes blanches dans la plupart des cas et dessinait des images inexactes. représentations de personnages historiques.

À chaque incident, les initiés de l’industrie technologique ont critiqué l’entreprise pour avoir laissé tomber la balle. Mais lors d'entretiens, les analystes financiers ont déclaré que Google devait agir rapidement pour suivre le rythme de ses concurrents, même si cela impliquait des difficultés de croissance.

Google "n'a pas le choix pour le moment", a déclaré Thomas Monteiro, analyste chez Investing.com, dans une interview. "Les entreprises doivent agir très vite, même si cela implique de sauter quelques étapes en cours de route. L'expérience utilisateur devra simplement rattraper son retard."

Lara Levin, porte-parole de Google, a déclaré dans un communiqué que la grande majorité des requêtes de présentation de l'IA aboutissaient à "des informations de haute qualité, avec des liens permettant d'approfondir les recherches sur le Web". Le résultat généré par l’IA à partir de l’outil apparaît généralement en haut d’une page de résultats.

"La plupart des exemples que nous avons vus étaient des requêtes peu courantes, et nous avons également vu des exemples qui ont été falsifiés ou que nous n'avons pas pu reproduire", a-t-elle ajouté. L'entreprise utilisera des « exemples isolés » de réponses problématiques pour affiner son système.

Depuis qu’OpenAI a lancé son chatbot ChatGPT fin 2022 et qu’il est devenu une sensation du jour au lendemain, Google a été sous pression pour intégrer l’IA dans ses applications. dans ses applications populaires. Mais il est difficile d'apprivoiser les grands modèles de langage, qui apprennent à partir d'énormes quantités de données provenant du Web ouvert - y compris des mensonges et des messages satiriques - plutôt que d'être programmés comme des logiciels traditionnels.

(Le New York Times poursuivi OpenAI et son partenaire, Microsoft, en décembre, alléguant une violation du droit d'auteur sur le contenu d'actualité lié aux systèmes d'IA.)

Google a annoncé AI Overview en fanfare lors de sa conférence annuelle des développeurs, I/O, la semaine dernière. Pour la première fois, la société avait branché Gemini, sa dernière technologie d'IA à grand langage. modèle, dans son produit le plus important, son moteur de recherche.

AI Overview combine les déclarations générées à partir de ses modèles de langage avec des extraits de liens en direct sur le Web. Il peut citer ses sources, mais ne sait pas quand cette source est incorrecte.

Le système a été conçu pour répondre à des questions plus complexes et spécifiques que la recherche classique. Le résultat, selon la société, était que le public pourrait bénéficier de tout ce que Gemini pouvait faire, éliminant ainsi une partie du travail de recherche d'informations.

Mais les choses ont rapidement mal tourné et les utilisateurs ont publié des captures d’écran d’exemples problématiques sur des plateformes de médias sociaux comme X.

AI Overview a demandé à certains utilisateurs de mélanger de la colle non toxique dans leur sauce à pizza pour empêcher le fromage de glisser, une fausse recette qu'elle semblait emprunter à un [article Reddit vieux de 11 ans](https://x.com/petergyang/ status/1793480607198323196) c'était une blague. L'A.I. a dit aux autres utilisateurs d'ingérer au moins une pierre par jour pour les vitamines et les minéraux --- conseil qui provient d'un article satirique de The Onion.

En tant que vache à lait de l'entreprise, la recherche Google est "la seule propriété que Google doit garder pertinente/digne de confiance/utile", Gergely Orosz, ingénieur logiciel avec un bulletin d'information sur la technologie, Pragmatic Engineer, [a écrit sur X](https://x .com/GergelyOrosz/status/1793895783999455607). "Et pourtant, des exemples de la manière dont les aperçus de l'IA transforment la recherche Google en déchets sont omniprésents dans mon calendrier."

Les gens ont également partagé des exemples de Google disant aux utilisateurs en caractères gras de nettoyer leurs machines à laver avec « de l'eau de Javel et du vinaigre blanc », un mélange qui, une fois combiné, peut créer du chlore gazeux nocif. Dans une police plus petite, il indiquait aux utilisateurs de nettoyer avec l’une, puis avec l’autre.

Les utilisateurs des réseaux sociaux ont tenté de se mesurer à ceux qui pourraient partager les réponses les plus farfelues de Google. Dans certains cas, ils ont falsifié les résultats. Une capture d'écran manipulée semblait montrer Google disant qu'un bon remède contre la dépression consistait à sauter du Golden Gate Bridge, citant un utilisateur de Reddit. Mme Levin, porte-parole de Google, a déclaré que les systèmes de l'entreprise n'avaient jamais renvoyé ce résultat.

AI Overview a cependant eu du mal avec l'histoire présidentielle, affirmant que 17 présidents étaient blancs et que Barack Obama était le premier président musulman, selon des captures d'écran publiées sur X.

Il indique également Andrew Jackson a obtenu son diplôme universitaire en 2005.

Kevin Roose a contribué au reportage.

Une correction a été apportée le 24 mai 2024 : une version antérieure de cet article faisait référence à tort à un résultat Google du nouvel outil d'intelligence artificielle de l'entreprise, AI Overview. Un commentateur des médias sociaux a affirmé que le résultat d'une recherche sur la dépression suggérait de sauter du Golden Gate Bridge comme remède. Ce résultat a été falsifié, a déclaré une porte-parole de Google, et n'est jamais apparu dans les résultats réels.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd