Incidents associés

Il s'avère que les "bots" d'édition automatique de Wikipédia se livrent une cyber-guerre entre eux depuis plus d'une décennie en modifiant les corrections des uns et des autres - et la situation s'aggrave.
Des chercheurs de l'Université d'Oxford au Royaume-Uni ont publié jeudi un rapport qui montre que le logiciel bot étudié entre 2001 et 2010 - qui est conçu pour "annuler le vandalisme, faire respecter les interdictions, vérifier l'orthographe, créer des liens inter-langues... [ et] identifier les violations du droit d'auteur", annule bien plus souvent les modifications apportées par d'autres robots créés par Wikipédia que celles apportées par les humains.
"Nous constatons que, bien que les robots de Wikipédia soient destinés à prendre en charge l'encyclopédie, ils annulent souvent les modifications les uns des autres et ces" combats "stériles peuvent parfois se poursuivre pendant des années", indique l'étude.
"Contrairement aux humains sur Wikipédia, les interactions des bots ont tendance à se produire sur de plus longues périodes et à être plus réciproques."
La recherche couvre les robots des 13 versions linguistiques de Wikipédia des dix premières années de fonctionnement du site Web. Il a constaté que, depuis 2001, la fréquence des bots annulant les modifications apportées par un autre bot n'a cessé d'augmenter - bien que cela dépende de la langue.
"Au cours de la période de dix ans, les bots sur Wikipedia anglais ont inversé un autre bot en moyenne 105 fois", indique le rapport.
"Les bots sur Wikipedia allemand se renvoient les uns les autres dans une bien moindre mesure que les autres bots (24 fois en moyenne). Les bots sur Wikipedia portugais, en revanche, se battent le plus, avec une moyenne de 185 retours bot-bot par bot."
@NoraReed Vous n'avez aucune idée à quel point cette lecture m'a rendu heureux. J'étais éditeur sur wikipedia mais j'ai abandonné à cause des bots. – Rachel Wülfe (@AberdorkUnited) 26 février 2017
Les chercheurs ont également découvert que, par rapport aux humains qui modifient les pages de Wikipédia, les bots ont tendance à prendre beaucoup plus de temps pour annuler les modifications d'un autre bot et sont plus susceptibles de correspondre au changement appliqué par un bot précédent.
En d'autres termes, si un bot modifie un message, un autre bot sera susceptible de le remettre exactement à ce qu'il était avant - même si cela leur prend un certain temps.
Considérez-le comme une forme de querelle en ligne entre deux robots qui dure depuis plus de 10 ans.
Alors, quels bots particuliers ont été responsables des désaccords ?
Selon les résultats, les bots peuvent être divisés en deux groupes : les bienveillants et les malveillants. Les bots bienveillants sont les bons gars de Wikipédia qui aident les utilisateurs à trouver ce dont ils ont besoin et facilitent leur visite en ligne. Les robots malveillants sont ceux qui neutralisent les modifications humaines incorrectes ou les violations de sites Web.
Bien qu'il s'avère que sur Wikipédia, même les gentils créent des problèmes.
"Nous avons constaté que la plupart des désaccords se produisaient entre des robots spécialisés dans la création et la modification de liens entre les différentes éditions linguistiques de l'encyclopédie", ont déclaré les chercheurs.
"Les mêmes bots sont responsables de la majorité des retours dans toutes les éditions linguistiques que nous étudions. Par exemple, certains des bots qui restaurent le plus d'autres bots incluent Xqbot, EmausBot, SieBot et VolkovBot, tous des bots spécialisés dans la réparation inter-wiki liens.
"Dans le cas de Wikipédia, nous constatons que des bots bienveillants conçus pour collaborer peuvent se retrouver en désaccord continu. C'est à la fois inefficace en tant que gaspillage de ressources et inefficace."
Il est temps d'interdire les bots de Wikipédia, je suppose... https://t.co/C5u91pbwfr — S Collis (@NomisSilloc) 26 février 2017
Dans les pires cas, Xqbot et Darknessbot ont réussi à s'affronter sur 3629 articles Wikipédia différents en un an, tandis que le bot japonais Tachikoma a fait tomber Russbot sur plus de 3000 articles sur deux ans, selon le Guardian.
Les résultats du rapport fonctionnent comme un rappel brutal que même les algorithmes de site Web les plus simples peuvent réagir de manière imprévisible – et avant que vous ne le sachiez, vous êtes dans dix ans dans une bataille sans fin de vérification orthographique.
On dirait que cela pourrait être de retour à la planche à dessin de Wikipedia.