Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3898

Incidents associés

Incident 6937 Rapports
Google AI Reportedly Delivering Confidently Incorrect and Harmful Information

Loading...
Pourquoi l'IA de Google pourrait vous recommander de mélanger de la colle à votre pizza
washingtonpost.com · 2024

Vous avez probablement le sentiment que les nouvelles formes d’intelligence artificielle peuvent être stupides comme de la pierre.

Des informations hilarantes et erronées provenant de la nouvelle IA de Google vous montrent à quel point c'est stupide.

Dans les résultats de recherche, l'IA de Google a récemment suggéré de mélanger de la colle aux ingrédients de la pizza pour que le fromage ne glisse pas. (Ne faites pas cela.) Il a déjà été dit que boire beaucoup d'urine peut vous aider à éliminer un calcul rénal. (Ne faites pas ça. Et Google a dit avoir corrigé celui-ci.)

L'IA de Google indique que John F. Kennedy est diplômé de l'Université du Wisconsin à Madison six années différentes, dont 1993. Il disait aucun pays africain ne commence par la lettre "K." (Non. Kenya.)

Ce sont pour la plupart des exemples stupides qui, dans certains cas, proviennent de personnes essayant d'amadouer l'IA de Google pour qu'elle dise la mauvaise chose.

Mais il y a une leçon sérieuse à tirer : vous devriez avoir des attentes relativement faibles à l’égard de l’IA. Avec l'IA générative de Google, ChatGPT d'OpenAI et Copilot de Microsoft, vous devez supposer qu'ils ont tort jusqu'à preuve du contraire.

Ces chatbots peuvent toujours être incroyablement utiles. Mais supposer qu’ils ont tort est un modèle mental différent de celui de la plupart des technologies que vous utilisez régulièrement. Lorsque vous saisissez un itinéraire dans Waze, envoyez un e-mail ou cliquez sur un lien dans Google, vous pouvez raisonnablement vous attendre à ce que les technologies fonctionnent correctement et avec précision.

"La grande majorité des aperçus de l'IA fournissent des informations de haute qualité, avec des liens permettant d'approfondir le Web", a déclaré Google dans un communiqué. La société a déclaré qu'elle avait effectué des tests approfondis avant le lancement des résultats de recherche par l'IA et qu'elle utilisait des exemples d'erreurs pour "développer des améliorations plus larges de nos systèmes, dont certains ont déjà commencé à être déployés".

Je vais vous expliquer pourquoi l'IA de Google (et d'autres chatbots) pourrait vous dire de manger de la colle, et les leçons que vous devriez tirer de ces erreurs.

Comment l'IA peut-elle se tromper à ce point

La technologie derrière ChatGPT et les « aperçus de l'IA » dans les recherches Google, qui [ont été déployées auprès de tous les Américains la semaine dernière](https://www.washingtonpost.com/technology/2024/05/14/google-io-announcements-2024 /?itid=lk_inline_manual_16), est appelé un grand modèle de langage.

La technologie a été alimentée des tonnes d'informations provenant d'Internet --- il pourrait s'agir d'articles de presse, Wikipédia, recettes en ligne, tests pratiques d'admission aux facultés de droit, forums Reddit et plus encore. Sur la base de modèles issus des données Internet, les ordinateurs génèrent des mots mathématiquement probables pour vos demandes.

Le programmeur informatique Simon Willison a déclaré que l'IA de Google fonctionne en analysant les termes que vous saisissez dans le champ de recherche et en collant la recherche et les résultats dans un grand modèle de langage. Il extrait ensuite des informations utiles des sites Web pertinents dans les résultats de recherche de Google.

Parfois, l'IA de Google isole des informations correctes et utiles. Parfois, surtout s'il n'y a pas beaucoup d'informations en ligne liées à votre recherche, cela génère quelque chose de faux.

L'exemple de la colle à pizza, a déclaré Willison, semble provenir d'informations en ligne relativement rares liées à une recherche Google probablement rare pour faire en sorte que le fromage colle à la pizza. L'IA de recherche de Google semble tirer sa réponse d'un message apparemment plaisant de Reddit datant de 11 ans.

L’IA ne peut pas faire la différence entre une blague et un fait. Ou si l'IA ne dispose pas de suffisamment d'informations pour vous donner une réponse précise, elle pourrait inventer une fiction à l'air confiant, notamment en affirmant que des chiens ont joué au basket-ball et au hockey professionnels.

"Il est difficile de créer une version de ceci qui ne présente pas toutes sortes de bugs étranges", a déclaré Willison.

La plupart des exemples qui circulent sur les réseaux sociaux étaient des erreurs ridicules de la part de l'IA de Google. Nous avons cependant confirmé que l'IA de Google a émis une désinformation habituelle selon laquelle l'ancien président Barack Obama est musulman. C'est un mensonge.

Google a déclaré avoir supprimé les fausses informations générées par l'IA.

Les entreprises ne divulguent pas grand-chose sur les informations dont leurs modèles d’IA « apprennent » ni sur la fréquence à laquelle leurs chatbots se trompent.

OpenAI a déclaré son taux de précision s'est amélioré. Microsoft a déclaré que son chatbot Copilot incluait des liens dans ses réponses, comme le fait Google, afin que les gens puissent en explorer davantage. Microsoft a également déclaré qu'il prenait en compte les commentaires des gens et qu'il améliorait Copilot.

'Méfiez-vous et vérifiez'

Willison a suggéré une variante du refrain « faire confiance mais vérifier » de l’ère Reagan pour les chatbots. Mettons-le sur les autocollants pour pare-chocs.

La plupart des gens ne mangeraient pas de colle simplement parce que Google le suggère. Mais les chatbots sont déjà difficiles à utiliser efficacement. Le risque est qu’une IA souvent erronée vous fasse perdre du temps et érode votre confiance dans une technologie émergente.

Rédactrice technologique Molly White a déclaré que les entreprises devraient faire davantage pour réduire vos attentes.

Elle a déclaré que Google, OpenAI et Microsoft doivent faire plus attention à ne pas vous montrer d'informations générées par l'IA pour des questions à enjeux élevés comme celles liées à votre santé ou à la loi.

Les représentants de Google et d'OpenAI ont déclaré que les entreprises imposaient des limites à l'utilisation des informations générées par l'IA pour des sujets à enjeux plus élevés, notamment des questions de santé et de droit. Microsoft a déclaré que de nombreuses réponses de Copilot, notamment concernant des informations sanitaires et juridiques, peuvent renvoyer les gens vers les résultats de recherche sur le Web Bing.

White a également déclaré que les entreprises ne devraient pas montrer des démonstrations irréalistes de chatbots à l'esprit vif qui donnent l'impression que vous interagissez avec un humain possédant des connaissances infinies.

"Ce n'est pas une personne à l'autre bout du fil qui raisonne", a déclaré White. "Il s'agit de deviner ce qui peut sembler juste."

Il est particulièrement délicat de définir vos attentes en matière de réponses de l'IA dans les recherches Google. Google mélange désormais des résultats de recherche familiers avec de nouvelles informations générées par l’IA, probablement moins fiables. ChatGPT ne fait pas ça.

Avec des attentes raisonnablement faibles, je suis toujours prudemment curieux de connaître l'IA de Google. Cette semaine, j'ai fait une recherche Google sur le meilleur éditeur de Wired. Les informations générées par l'IA de Google ont rassemblé ses détails biographiques, ainsi qu'une citation de son patron datant de son embauche.

Sans la réponse de l'IA de Google, j'aurais dû parcourir plusieurs liens pour trouver l'information. C'est la promesse que Google a faite : son IA effectuera la recherche sur Google pour vous .

Cette fois-là, la promesse fut tenue. Et l'IA de Google ne m'a pas dit de manger de la colle.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd