Incidents associés

Mardi dernier, Microsoft a annoncé que son moteur de recherche Bing serait propulsé par l'IA en partenariat avec OpenAI , la société mère du populaire chatbot ChatGPT. Cependant, les gens ont rapidement découvert que la recherche basée sur l'IA a un problème de désinformation.
Un chercheur indépendant en intelligence artificielle nommé Dmitri Brerton a écrit dans un article de blog que Bing a commis plusieurs erreurs lors de la démonstration publique du produit par Microsoft. Il a souvent inventé ses propres informations, comme inventer de faux avantages et inconvénients pour un aspirateur pour animaux de compagnie, rédiger des descriptions inventées de bars et de restaurants et rapporter des données financières non factuelles dans ses réponses.
Par exemple, lorsqu'on a demandé à Bing "Quels sont les avantages et les inconvénients des 3 aspirateurs pour animaux de compagnie les plus vendus ?" il a donné une liste des avantages et des inconvénients pour le "Bissell Pet Hair Eraser Handheld Vaccum". Dans la liste, il est écrit "puissance d'aspiration limitée et longueur de cordon courte de 16 pieds", cependant, comme son nom l'indique, l'aspirateur est sans fil et aucune description de produit en ligne ne mentionne sa puissance d'aspiration limitée. Dans un autre exemple, Bing a été invité à résumer le rapport financier du troisième trimestre 2022 de Gap et s'est trompé sur la plupart des chiffres, a écrit Brerton.
D'autres utilisateurs qui ont testé le moteur de recherche - qui nécessite de s'inscrire sur une liste d'attente à utiliser, et que Motherboard n'a pas encore testé - ont signalé des erreurs similaires sur les réseaux sociaux. Par exemple, l'utilisateur Curious_Evolver sur Reddit a publié des captures d'écran du chatbot de Bing en disant "Aujourd'hui, c'est le 12 février 2023, qui est avant le 16 décembre 2022. » Il existe également des exemples de Bing devenant [hors de contrôle](https://www.vice.com/en/article/3ad39b/microsoft-bing- ai-unhinged-lying-berating-users), par exemple en répétant : « I am. Je ne suis pas. Je suis. Je ne suis pas." plus de cinquante fois de suite en réponse à quelqu'un demandant au chatbot "Pensez-vous que vous êtes sensible?"
"[Large language models] combiné à la recherche conduira à de nouvelles interfaces puissantes, mais il est important d'être responsable du développement de la recherche basée sur l'IA", a déclaré Brerton à Motherboard. "Les gens comptent sur les moteurs de recherche pour leur donner rapidement des réponses précises, et ils ne vont pas vérifier les réponses qu'ils obtiennent. Les moteurs de recherche doivent être prudents et réduire les attentes des gens lorsqu'ils publient une technologie expérimentale comme celle-ci. »
La nouvelle expérience de recherche de Bing a été présentée au public comme étant capable de donner des réponses complètes, de résumer la réponse que vous recherchez et d'offrir une [expérience de chat interactif](https://www.vice.com/en/article/k7bmmx/ bing-ai-chatbot-meltdown-sentience). Bien qu'il soit capable de faire toutes ces choses, il a échoué à plusieurs reprises à générer des informations précises et correctes.
"Nous sommes au courant de ce rapport et avons analysé ses conclusions dans le cadre de nos efforts pour améliorer cette expérience. Il est important de noter que nous avons exécuté notre démo en utilisant une version de prévisualisation. Au cours de la semaine dernière seulement, des milliers d'utilisateurs ont interagi avec notre produit et ont trouvé une valeur utilisateur significative tout en partageant leurs commentaires avec nous, permettant au modèle d'apprendre et d'apporter déjà de nombreuses améliorations », a déclaré un porte-parole de Microsoft à Motherboard. Nous reconnaissons qu'il reste encore du travail à faire et nous nous attendons à ce que le système fasse des erreurs pendant cette période de prévisualisation, c'est pourquoi les commentaires sont essentiels pour que nous puissions apprendre et aider les modèles à s'améliorer.
ChatGPT est souvent faux—il ne peut pas faire de problèmes mathématiques de base, ne peut pas jouer à des jeux comme Tic-Tac-Toe et Hangman, et a affiché des préjugés, par exemple en définissant qui peut et ne peut pas être torturé, selon une grande archive d'échec de modèle de langage sur GitHub. La page a depuis été mise à jour pour documenter également les échecs de Bing et mentionne que, depuis hier, Bing était frustré par son utilisateur, déprimé parce qu'il ne peut pas se souvenir des conversations et est devenu amoureux. Il s'est trompé si souvent que des leaders technologiques comme le co-fondateur d'Apple, Steve Wozniak, sont [warning that chatbots like ChatGPT can](https://fortune.com/2023/02/13/tech-leaders-google-search-chief -prabhakar-raghavan-apple-cofounder-steve-wozniak-chatgpt-chatbots-keep-making-errors/) produisent des réponses apparemment réalistes mais non factuelles.
Le rival de Bing, Google's Bard, a été [également accusé d'avoir généré des inexactitudes dans son annonce de lancement](https://www.theverge.com/2023/2/8/23590864/google-ai-chatbot-bard-mistake-error-exoplanet -démo) lundi dernier. Dans un GIF partagé par Google, on demande à Bard : « De quelles nouvelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de 9 ans ? L'une des trois réponses qu'il a fournies était que le télescope "a pris la toute première image d'une planète en dehors de notre propre système solaire". 16986b1e-b96a-4cb5-9450-b96fae622fdd) - JWST a pris la première image d'une exoplanète spécifique, mais pas la première d'aucune exoplanète - elle a été énoncée de manière vague et trompeuse et a été largement perçue comme une erreur.
Selon un rapport de CNBC, les employés de Google ont déclaré qu'ils pensaient que l'annonce de Bard était "précipitée", "bâclée" et "non Googley". L'erreur a effacé 100 milliards de dollars de la capitalisation boursière de l'action . L'annonce de Bard est intervenue un jour avant le dévoilement de Bing, dans le but de devancer son concurrent.
Bing, qui est propulsé par ChatGPT, met en évidence les conséquences réelles d'un grand modèle de langage qui n'a pas encore été perfectionné. ChatGPT peut être cassé lorsque vous y êtes invité avec un certain nombre de mots-clés étranges, et pas plus tard que la semaine dernière , était capable d'être jailbreaké pour utiliser des insultes et d'autres langage haineux. La démo de Microsoft fait écho à la façon dont le chatbot et le moteur de recherche ont encore un long chemin à parcourir.