Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1127

Incidents associés

Incident 76 Rapports
Wikipedia Vandalism Prevention Bot Loop

Loading...
Les bots Internet se battent parce qu'ils sont tous trop humains
wired.com · 2017

Getty Images

Personne n'a vu la crise venir : un effort de vandalisme coordonné pour insérer des références à Squidward dans des articles totalement sans rapport avec Squidward. En 2006, Wikipédia commençait vraiment à démarrer et ne pouvait vraiment pas se permettre d'avoir des hauts jinks liés à SpongeBob SquarePants qui ternissent la réputation croissante du site. C'était une honte. Quelqu'un devait arrêter Squidward.

La communauté Wikipédia savait qu'elle ne pouvait pas mobiliser des éditeurs humains pour faire face aux trolls - l'assaut était trop grand, le travail trop fastidieux. Ainsi, à la place, un administrateur a bricolé un bot qui a automatiquement signalé les insertions errantes du céphalopode qui ne doit pas être nommé. Et cela a fonctionné. Wikipédia a repoussé la menace Squidward et, ce faisant, est tombé dans une puissante alliance avec les bots. Aujourd'hui, des centaines d'assistants algorithmiques combattent toutes sortes de vandales, corrigent les fautes de frappe et créent même des articles par eux-mêmes. Wikipédia serait un gâchis sans eux.

Mais une chose amusante se produit lorsque vous enfermez un groupe de bots dans une salle virtuelle : parfois, ils ne s'entendent pas. Parfois, une paire de bots se lance dans une bagarre, écrasant les décisions de l'autre des milliers de fois pendant des années. Selon une nouvelle étude publiée dans PLOS ONE, cela arrive souvent. Pourquoi? Parce que peu importe à quel point les bots peuvent sembler froids et calculateurs, ils ont tendance à agir trop humains. Et ce sont les sympathiques bots racistes d'Internet. Imaginez des assistants numériques personnels alimentés par l'IA dans la même pièce qui se crient dessus toute la journée. Google Home contre Alexa, quelqu'un ?

Sur Wikipédia, les robots gèrent le travail atrocement ennuyeux et monotone qui rendrait folle une armée d'éditeurs humains - si une armée d'éditeurs pouvait même suivre tout le travail. Un bot ne se lasse pas. Il ne se met pas en colère, du moins pas contre les humains. Il est programmé pour une tâche, et il s'occupe de cette tâche avec une cohérence et un dévouement que les humains ne peuvent égaler.

Alors que les désaccords entre les éditeurs humains de Wikipédia ont tendance à pétiller, les combats entre bots peuvent durer des mois ou des années. L'étude a révélé que les bots sont beaucoup plus susceptibles de se disputer que les éditeurs humains sur la version anglaise de Wikipédia : les bots ont chacun remplacé un autre bot en moyenne 105 fois au cours d'une décennie, contre une moyenne de trois fois pour les éditeurs humains. Les bots s'emballent parce qu'ils n'en savent tout simplement rien - ce ne sont que des bouts de code, après tout.

Mais cela ne signifie pas qu'ils ne sont pas dignes de confiance. Les robots gèrent des tâches relativement simples comme la vérification orthographique, sans prendre de décisions éditoriales plus importantes. En effet, c'est uniquement grâce au travail des bots que les éditeurs humains peuvent se concentrer sur ces problèmes d'ensemble. Pourtant, lorsqu'ils ne sont pas d'accord, ils ne débattent pas rationnellement comme le feraient les humains. Ils sont les serviteurs de leur code. Et leur portée - en parcourant en permanence plus de 5 millions d'articles dans la seule Wikipédia en anglais - signifie qu'ils trouvent de nombreux problèmes à corriger et potentiellement en désaccord.

Et les bots font bien plus que leur juste part de travail. Le nombre d'éditeurs humains sur Wikipédia en anglais peut éclipser le nombre de bots - quelque 30 000 éditeurs d'espaces de viande actifs contre environ 300 éditeurs actifs créés uniquement à partir de code - mais les bots sont des contributeurs incroyablement productifs. "Ils ne sont même pas tout à fait visibles si vous les mettez sur une carte parmi d'autres éditeurs", explique Taha Yasseri de l'Université d'Oxford, co-auteur de l'étude. « Mais ils font beaucoup. La proportion de toutes les modifications effectuées par des robots dans différentes langues varierait de 10 %, jusqu'à 40 voire 50 % dans certaines éditions linguistiques. » Pourtant, Wikipédia n'est pas descendu dans un champ de bataille sanglant de robots. C'est parce que les humains surveillent de près les bots, qui font bien plus de bien que de mal.

Robots barbares

Mais les robots entrent inévitablement en collision, soutient Yasseri. Par exemple, l'étude a révélé qu'au cours de trois ans, deux robots qui surveillaient les doubles redirections sur Wikipédia avaient eux-mêmes tout un tiff. (Une redirection se produit lorsque, par exemple, une recherche pour "Royaume-Uni" vous redirige vers l'article pour "Royaume-Uni". Une double redirection est une redirection qui redirige vers une autre redirection, un grand non-non de Wikipédia.) Sur quelque 1 800 articles , Scepbot a annulé les modifications de RussBot 1 031 fois au total, tandis que RussBot a rendu la pareille 906 fois. Cela se produit en raison de divergences dans les conventions de dénomination - RussBot, par exemple, a redirigé "Ricotta al forno" vers "Fromage Ricotta", alors qu'il redirigeait auparavant vers "Ricotta". Puis Scepbot est arrivé et a annulé ce changement.

Pour sa part, Wikipédia conteste que ces bots ne "se battent" pas vraiment.

"Si, par exemple, Scepbot avait effectué le nettoyage original à double redirection et RussBot effectué le deuxième nettoyage à double redirection, il semblerait qu'ils se 'revertissent' l'un l'autre", déclare Aaron Halfaker, chercheur principal à la Wikimedia Foundation. . "Mais en réalité, les bots collaborent pour garder le graphe de redirection du wiki propre."

"Nous savons parfaitement quels bots sont en cours d'exécution en ce moment." Aaron Halfaker, Fondation Wikimédia

Pourtant, Halfaker reconnaît que les bots reve

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd