Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2645

Incidents associés

Incident 46714 Rapports
Google's Bard Shared Factually Inaccurate Info in Promo Video

Loading...
Le chatbot IA de Google, Bard, fait une erreur factuelle dans la première démo
theverge.com · 2023

Lundi, Google a annoncé son AI chatbot Bard — un rival du ChatGPT d'OpenAI cela devrait devenir "plus largement accessible au public dans les semaines à venir". Mais le bot n'a pas pris un bon départ, les experts notant que Bard a fait une erreur factuelle dans sa toute première démo.

Un GIF partagé par Google montre Bard répondant à la question : « De quelles nouvelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de 9 ans ? Bard propose trois puces en retour, dont une indiquant que le télescope "a pris les toutes premières images d'une planète en dehors de notre propre système solaire".

Cependant, un certain nombre d'astronomes sur Twitter ont souligné que c'était incorrect et que la première image d'une exoplanète avait été prise en 2004 - [comme indiqué ici sur le site Web de la NASA](https://exoplanets.nasa.gov/resources/300/ 2m1207b-première-image-d-une-exoplanète).

"Ce n'est pas pour être un con ~ bien, en fait ~, et je suis sûr que Bard sera impressionnant, mais pour mémoire : JWST n'a pas pris 'la toute première image d'une planète en dehors de notre système solaire'", a tweeté l'astrophysicien Grant Tremblay. .

Bruce Macintosh, directeur des observatoires de l'Université de Californie à l'UC Santa Cruz, a également souligné l'erreur. "Parlant en tant que quelqu'un qui a imaginé une exoplanète 14 ans avant le lancement de JWST, j'ai l'impression que vous devriez trouver un meilleur exemple ?" il a tweeté.

(L'erreur et les objections des experts ont d'abord été repérées par [Reuters](https://www.reuters.com/technology/google-ai-chatbot-bard-offers-inaccurate-information-company-ad-2023-02- 08/) et [New Scientist](https://go.redirectingat.com/?id=66960X1514734&xs=1&url=https%3A%2F%2Fwww.newscientist.com%2Farticle%2F2358426-google-bard-advert-shows- new-ai-search-tool-making-a-factual-error%2F&referrer=theverge.com&sref).)

Dans un tweet de suivi, Tremblay a ajouté: «J'aime et j'apprécie que l'une des entreprises les plus puissantes de la planète utilise une recherche JWST pour annoncer son LLM. Génial! Mais ChatGPT, etc., bien qu'impressionnants et effrayants, se trompent souvent *avec beaucoup de confiance*. Sera intéressant de voir un avenir où les LLM vérifient eux-mêmes les erreurs.

Comme le note Tremblay, un problème majeur pour les chatbots IA comme ChatGPT et Bard est leur tendance à déclarer avec confiance des informations incorrectes comme des faits. Les systèmes "hallucinent" fréquemment - c'est-à-dire inventent des informations - car ce sont essentiellement des systèmes de saisie semi-automatique.

Plutôt que d'interroger une base de données de faits avérés pour répondre à des questions, ils sont formés sur d'énormes corpus de texte et analysent des modèles pour déterminer quel mot suit le suivant dans une phrase donnée. En d'autres termes, ils sont probabilistes et non déterministes – un trait qui a conduit un éminent professeur d'IA à les qualifier de "générateurs de conneries".

Bien sûr, Internet regorge déjà d'informations fausses et trompeuses, mais le problème est aggravé par la volonté de Microsoft et de Google d'utiliser ces outils comme moteurs de recherche. Là, les réponses des chatbots prennent l'autorité d'une machine qui sait tout.

Microsoft, qui a présenté hier son nouveau moteur de recherche Bing alimenté par l'IA, a tenté de devancer ces problèmes en plaçant la responsabilité sur l'utilisateur. "Bing est alimenté par l'IA, donc des surprises et des erreurs sont possibles", indique la clause de non-responsabilité de l'entreprise. "Assurez-vous de vérifier les faits et de partager vos commentaires afin que nous puissions apprendre et nous améliorer !"

Une porte-parole de Google, Jane Park, a fait cette déclaration à The Verge : "Cela souligne l'importance d'un processus de test rigoureux, quelque chose que nous lançons cette semaine avec notre programme Trusted Tester. Nous combinerons les commentaires externes avec nos propres tests internes pour nous assurer que les réponses de Bard atteignent un niveau élevé de qualité, de sécurité et d'ancrage dans les informations du monde réel.

Mise à jour, mercredi 8 février, 11h03 HE : L'histoire a été mise à jour avec un commentaire de Google.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd