Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 7023

Incidents associés

Incident 13924 Rapports
Ars Technica Retracted Article After Purportedly AI-Generated Text Was Presented as Direct Quotes From Matplotlib Maintainer

Loading...
Ars Technica licencie un journaliste suite à une polémique sur l'IA et des citations fabriquées.
futurism.com · 2026

Le site Ars Technica, propriété de Condé Nast, a licencié Benj Edwards, journaliste spécialisé en intelligence artificielle, suite à une polémique concernant son rôle dans la publication puis la rétractation d'un article contenant des citations générées par une IA, comme l'a confirmé Futurism.

Plus tôt ce mois-ci, Ars avait rétracté l'article après la découverte de fausses citations attribuées à une personne réelle. L'article – relatant un incident viral où un agent d'IA a apparemment publié un article à charge contre un ingénieur nommé Scott Shambaugh – a été initialement publié le 13 février. Après que Shambaugh a affirmé n'avoir jamais prononcé les propos qui lui étaient attribués, le rédacteur en chef d'Ars, Ken Fisher, a présenté ses excuses dans une note de la rédaction, dans laquelle il a confirmé que l'article contenait des « citations fabriquées, générées par un outil d'IA et attribuées à une source qui ne les avait pas prononcées », et a qualifié l'erreur de « grave manquement à nos normes ». Il a ajouté qu'après vérification, l'erreur semblait être un « incident isolé ». (404 Media a été le premier média à signaler la rétractation.)

Peu après la publication de la note de l'éditeur de Fisher, Edwards, l'un des deux auteurs de l'article, a publié un message sur Bluesky pour assumer l'entière responsabilité de l'inclusion des citations fabriquées.

Dans ce message, Edwards a expliqué qu'il était malade à ce moment-là et que, « travaillant depuis son lit, fiévreux et souffrant d'un manque de sommeil », il avait « involontairement commis une grave erreur journalistique » en tentant d'utiliser un « outil d'IA expérimental basé sur le code Claude » pour l'aider à « extraire des extraits textuels pertinents ». Il a expliqué que l'outil n'avait pas servi à générer l'article, mais qu'il était conçu pour « aider à structurer les références » et les intégrer dans un plan. Face au dysfonctionnement de l'outil, Edwards a indiqué avoir décidé d'utiliser ChatGPT pour tenter d'en comprendre la cause.

« J'aurais dû prendre un jour de congé maladie, car au cours de cet échange, j'ai involontairement paraphrasé les propos de Shambaugh au lieu de les retranscrire fidèlement », a poursuivi Edwards. Il a insisté sur le fait que « le texte de l'article a été rédigé par des humains et que cet incident est isolé et ne reflète en rien les normes éditoriales d'Ars. Aucun de nos articles n'est généré par une IA ; c'est contraire à la politique de l'entreprise et nous l'avons toujours respectée. »

Edwards a également souligné que son collègue Kyle Orland, rédacteur en chef jeux vidéo du site et co-signé de l'article rétracté, n'était « en aucune façon responsable de cette erreur ».

 Tout est de ma faute. et les spéculations se sont aggravées parce que j'étais malade au lit avec une forte fièvre et incapable d'y répondre de manière fiable (je suis toujours malade). La direction m'a dit de ne pas faire de commentaires tant qu'ils ne l'auraient pas fait. Voici ma déclaration en images ci-dessous : arstechnica.com/staff/2026/0…

— Benj Edwards (@benjedwards.com) 2026-02-15T21:02:58.876Z

La controverse a suscité une vague de réactions et de spéculations de la part des lecteurs d'Ars, dont beaucoup ont exprimé leur profonde frustration et leur déception dans un [long commentaire]. Le 27 février, sur le site web d'Ars Technica, Aurich Lawson, directeur de la création d'Ars Technica, a clôturé la discussion en déclarant qu'Ars Technica avait examiné la question et que les mesures internes appropriées avaient été prises.

« Dans les prochaines semaines, nous publierons un guide à destination des lecteurs expliquant comment nous utilisons, ou non, l'IA dans notre travail », a écrit Lawson. « Nous ne commentons pas les décisions relatives au personnel. »

Le 28 février, la biographie d'Edwards sur le site Ars a été modifiée au passé, d'après une version archivée de la page (https://web.archive.org/web/20260218010952/https://arstechnica.com/author/benjedwards/). On peut désormais y lire qu'Edwards « était journaliste chez Ars, où il couvrait l'intelligence artificielle et l'histoire des technologies ».

Futurism a contacté Ars, Condé Nast et Edwards lui-même afin de se renseigner sur la situation professionnelle du journaliste. Ni la publication ni son propriétaire n'ont répondu. Edwards a déclaré ne pas être en mesure de faire de commentaires pour le moment.

La rétractation d’Ars n’est pas la première controverse liée à l’IA qui risque de semer la zizanie dans une rédaction, ni de susciter la colère des lecteurs. Elle survient également à un moment où de nombreux dirigeants de médias incitent leurs équipes à exploiter l’IA – à l’instar des cadres de la plupart des secteurs – alors même que des directives claires encadrant l’utilisation de cette technologie et garantissant l’éthique éditoriale restent difficiles à établir.

Ces injonctions à intégrer l’IA s’inscrivent dans un contexte complexe et en constante évolution : des batailles juridiques acharnées autour du droit d’auteur opposent les géants de l’information aux entreprises spécialisées en IA. Des accords simultanés entre les géants de l'information et les entreprises d'IA ; un internet de plus en plus saturé d'informations erronées et de mauvaise qualité générées par l'IA ; et un chute brutale du trafic liée aux « Aperçus IA » de Google, qui paraphrasent désormais l'actualité au lieu de proposer une liste de liens bleus.

Nous vivons une période explosive et déstabilisante dans l'histoire des médias et des technologies, où journalistes et publics prennent position. Les conséquences de la polémique autour d'Ars mettent en lumière un phénomène récurrent : même ceux qui connaissent parfaitement l'IA et ses limites peuvent finir par s'y fier à un moment critique et, ce faisant, être victimes d'un fléau bien plus ancien que l'IA générative : l'erreur humaine.

« L'ironie de voir un journaliste IA piégé par une hallucination de l'IA ne m'échappe pas », a déclaré Edwards dans son article du 15 février sur Bluesky. « J’accorde une grande importance à la précision dans mon travail et il s’agit d’un échec douloureux de ma part. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd