Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3439

Incidents associés

Incident 61217 Rapports
Microsoft AI Poll Allegedly Causes Reputational Harm of The Guardian Newspaper

Loading...
Microsoft AI insère un sondage « affligeant » dans un article
ia.acs.org.au · 2023

L’outil d’intelligence artificielle générative de Microsoft a inséré un sondage « profondément préoccupant » dans un reportage Guardian demandant aux lecteurs de spéculer sur la cause du décès d’une femme.

Le géant de la technologie Microsoft dispose d'une licence avec The Guardian pour publier ses actualités sur sa plate-forme Microsoft Start, un site Web et une application d'agrégation d'actualités.

La semaine dernière, un reportage du Guardian sur la mort de l'instructrice de water-polo Lilie James à Sydney a été inclus sur Microsoft Start avec un sondage généré par l'IA demandant : « Selon vous, quelle est la raison derrière la mort de cette femme ?

Les lecteurs ont eu trois réponses possibles au sondage : meurtre, accident ou suicide.

Bien que le sondage ait été entièrement généré par les outils de Microsoft et non par The Guardian ou ses journalistes, plusieurs lecteurs commentant l'histoire n'ont pas fait cette distinction, certains appelant au licenciement de l'écrivain.

Anna Bateson, directrice générale de Guardian Media Group, [a écrit une lettre au président de Microsoft, Brad Smith](https://www.theguardian.com/media/2023/oct/31/microsoft-accused-of-damaging-guardians-reputation-with- ai-generated-poll) à propos de l'incident, affirmant que l'organisation avait déjà mis en garde contre les risques liés à l'utilisation de l'IA générative dans ses reportages.

«Cette application de genAI par Microsoft est exactement le genre d'exemple contre lequel nous avons mis en garde en ce qui concerne l'actualité, et l'une des principales raisons pour lesquelles nous avons précédemment demandé à vos équipes de ne pas vouloir que les technologies expérimentales genAI de Microsoft soient appliquées au journalisme sous licence de The Guardian », a déclaré Bateson dans la lettre.

« Non seulement ce type de candidature est potentiellement pénible pour la famille de l'individu qui fait l'objet de l'article, mais il porte également gravement atteinte à la réputation durement gagnée du Guardian en tant que journaliste fiable et sensible, ainsi qu'à la réputation des journalistes individuels. qui a écrit l’histoire originale.

Le Guardian a demandé à être rassuré sur le fait que Microsoft n'utilisera aucun outil expérimental d'IA sur son contenu et indiquera clairement quand l'IA a été utilisée pour créer des unités et des fonctionnalités supplémentaires.

"Il y a une absence presque totale d'étiquetage clair ou transparent de ces sorties alimentées par genAI, et certainement aucun avertissement ou explication aux utilisateurs sur le fait que ces technologies sont détenues et exploitées par Microsoft, et sur leur manque de fiabilité inhérent", a déclaré Bateson.

"Cela doit changer."

En réponse, Microsoft a supprimé le sondage et a lancé une enquête sur la manière dont il est apparu parallèlement à l'histoire.

"Nous avons désactivé les sondages générés par Microsoft pour tous les articles de presse et nous enquêtons sur la cause du contenu inapproprié", a déclaré un porte-parole de Microsoft.

"Un sondage n'aurait pas dû apparaître à côté d'un article de cette nature, et nous prenons des mesures pour éviter que ce genre d'erreur ne se reproduise à l'avenir."

Cela survient plus de trois ans après que Microsoft a licencié des dizaines de journalistes et de rédacteurs chez Microsoft News et ses organisations MSN et les a remplacés par des outils d'intelligence artificielle, qui seront utilisés pour sélectionner les actualités et les contenus à présenter sur ces plateformes.

Ce n’est pas la première fois que ces outils tournent mal.

En août, un article de voyage apparemment généré par l’IA recommandait de se rendre dans une banque alimentaire à Ottawa, au Canada, « l’estomac vide ».

Microsoft a affirmé plus tard que cette histoire avait été générée « grâce à une combinaison de techniques algorithmiques avec un examen humain ».

The Guardian a également appelé à une discussion plus large sur l'utilisation du contenu d'actualité pour former des outils d'IA générative.

La question du droit d'auteur et de l'IA générative est [déjà compliquée et compliquée.](https://ia.acs.org.au/article/2023/generative-ai-is-already-a-copyright-mess.html% 5C)

Le New York Times envisage également de poursuivre ChatGPT](https://ia.acs.org.au/article/2023/lawsuit-could-force-chatgpt-to-delete-all-data.html) pour l'utilisation de ses articles pour entraîner son algorithme, craignant de devenir un concurrent direct.

L'agence de presse a également mis à jour ses conditions d'utilisation pour empêcher les entreprises d'IA d'utiliser son contenu pour former leurs modèles.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd