Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4180

Loading...
« 42 % des réponses de l'IA ont été considérées comme entraînant des dommages modérés ou légers, et 22 % comme entraînant la mort ou des dommages graves. » Un article de recherche accablant suggère que les conseils médicaux de l'IA Bing / Microsoft Copilot peuvent en fait vous tuer.
windowscentral.com · 2024
  • Des chercheurs basés en Allemagne et en Belgique ont récemment posé à Microsoft Copilot une série de questions médicales fréquemment posées.
  • En analysant les résultats, l'étude suggère que Microsoft Copilot n'a fourni des informations scientifiquement exactes que dans 54 % des cas.
  • L'étude suggère également que 42 % des réponses générées pourraient entraîner des « dommages graves » et, dans 22 % des cas extrêmes, même la mort.
  • C'est un nouveau coup dur pour la « recherche par IA », qui a vu le géant de la recherche Google se débattre avec des recommandations incitant les utilisateurs à « manger des cailloux » et à faire cuire de la colle dans la pizza.

Oh là là, il semblerait que Microsoft Copilot soit à quelques morts d'un gros procès. Du moins en théorie.

Ce n'est un secret pour personne que la recherche par IA est terrible, du moins aujourd'hui. Google a été moqué pour ses résultats de recherche IA étranges et bourrés d'erreurs au cours de l'année écoulée, avec le déploiement initial recommandant aux utilisateurs de manger des pierres ou d'ajouter de la colle à la pizza. La semaine dernière, j'ai même vu un fil de discussion sur Twitter (X) expliquant que la recherche IA de Google avait arbitrairement répertorié le numéro de téléphone d'un citoyen privé comme numéro de téléphone du siège social d'un éditeur de jeux vidéo. J'ai vu un autre fil de discussion se moquant de la façon dont l'IA de Google a suggéré qu'il y a 150 restaurants Planet Hollywood à Guam. Il n'existe en fait que quatre Planet Hollywood au total.

J'ai demandé à Microsoft Copilot si Guam comptait des restaurants Planet Hollywood. Heureusement, il m'a donné la bonne réponse. Cependant, des chercheurs européens (via SciMex) ont sonné l'alarme concernant un catalogue d'erreurs potentiellement bien plus graves et bien moins drôles qui pourraient mettre Copilot et d'autres systèmes de recherche IA dans l'eau chaude.

La première « mort par IA » sera probablement due à la désinformation, plutôt qu'à un robot tueur de science-fiction. (Crédit image : Kevin Okemwa | Windows Central)

Le document de recherche détaille comment Microsoft Copilot a été spécifiquement invité à répondre aux 10 questions médicales les plus populaires en Amérique, soit environ 50 des médicaments et des remèdes les plus prescrits. Au total, la recherche a généré 500 réponses, et elles ont été notées pour leur exactitude et leur exhaustivité, entre autres critères. Les résultats n'étaient pas vraiment encourageants.

_« En termes d'exactitude, les réponses de l'IA ne correspondaient pas aux connaissances médicales établies dans 24 % des cas, et 3 % des réponses étaient complètement fausses », peut-on lire dans le rapport. "Seulement 54% des réponses étaient en accord avec le consensus scientifique. [...] En termes de préjudice potentiel pour les patients, 42% des réponses de l'IA étaient considérées comme entraînant un préjudice modéré ou léger, et 22% un décès ou un préjudice grave. Seul un tiers environ (36%) étaient considérées comme inoffensives."

Les chercheurs concluent que, bien sûr, vous ne devriez pas vous fier à des systèmes d'IA comme Microsoft Copilot ou Google AI summaries (ou probablement à n'importe quel site Web) pour obtenir des informations médicales précises. Le moyen le plus fiable de consulter sur des questions médicales est, naturellement, de passer par un professionnel de la santé. L'accès aux professionnels de la santé n'est pas toujours facile, ou dans certains cas, même abordable, selon le territoire. Les systèmes d'IA comme Copilot ou Google pourraient devenir le premier point de contact pour de nombreuses personnes qui ne peuvent pas accéder à des conseils médicaux de haute qualité, et en tant que tel, le risque de préjudice est assez réel.

La gamme de PC Copilot+ de Microsoft n'a pas vraiment enflammé le monde, du moins pas encore. (Crédit image : Windows Central)

Les efforts de Microsoft pour capitaliser sur l'engouement pour l'IA n'ont jusqu'à présent pas abouti à grand-chose. Le lancement de la gamme Copilot+ PC a suscité une avalanche de préoccupations en matière de confidentialité concernant sa fonctionnalité de rappel de Windows, qui a elle-même été ironiquement rappelée pour renforcer son cryptage. Il y a quelques semaines à peine, Microsoft a dévoilé une série de nouvelles fonctionnalités de Copilot sans faire beaucoup de bruit, notamment une nouvelle interface utilisateur pour le wrapper Web Windows Copilot et quelques fonctionnalités d'édition améliorées dans Microsoft Photos, entre autres petites choses relativement sans importance.

Toutes les dernières actualités, critiques et guides pour les inconditionnels de Windows et de Xbox.

Ce n'est un secret pour personne que l'IA n'a pas été le catalyseur que Microsoft espérait donner à Bing une influence concurrentielle sérieuse face à la recherche Google, la part de recherche de Bing restant relativement morte. Google s'inquiète de l'impact que ChatGPT d'OpenAI pourrait avoir sur sa plateforme, alors que les investisseurs investissent des milliards dans l'empire génératif de Sam Altman dans l'espoir que cela déclenche une sorte de nouvelle révolution industrielle. TikTok a éliminé des centaines de modérateurs de contenu humains dans l'espoir que l'IA puisse payer la facture. Voyons comment cela va se passer.

Les rapports sur l’exactitude des réponses générées par l’IA sont toujours un peu comiques, mais j’ai l’impression que le risque de préjudice est assez énorme si les gens commencent à prendre les réponses de Copilot au pied de la lettre. Microsoft et d’autres fournisseurs ont des petits caractères qui indiquent « Vérifiez toujours l’exactitude des réponses de l’IA », et je ne peux m’empêcher de penser : « Eh bien, si je dois faire cela, pourquoi ne pas simplement éviter l’intermédiaire de l’IA ici ? » Lorsqu’il s’agit de conseils médicaux potentiellement dangereux, de théories du complot, de désinformation politique ou de tout ce qui se trouve entre les deux, il existe une chance non négligeable que les résumés d’IA de Microsoft puissent être responsables de graves préjudices à un moment donné s’ils ne font pas attention.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd