Incidents associés

Une enquête sur les robots de Wikipédia a confirmé que le logiciel d'édition automatisé peut être tout aussi pédant et mesquin que les humains - se livrant souvent à des querelles en ligne qui peuvent durer des années.
Ce qui est intéressant, c'est que les bots se comportent différemment selon la version linguistique de Wikipédia sur laquelle ils travaillent : certains deviennent plus argumentatifs que d'autres, en fonction de la culture et des sujets qu'ils finissent par aborder.
Les robots parcourent le Web mondial depuis plus de 20 ans. Certains peuvent être très utiles. D'autres le sont moins, crachant des abus racistes et des spams, ou se faisant passer pour de belles femmes séduisantes sur des sites de rencontres.
Un article publié aujourd'hui dans PLOS ONE par des chercheurs de l'Université d'Oxford et de l'Institut Alan Turing au Royaume-Uni divise les bots Internet en deux catégories : bienveillants et malveillants.
Les droïdes Wikipédia sont classés comme bienveillants car ils aident à éditer des articles, à identifier et à nettoyer le vandalisme, à vérifier l'orthographe, à importer automatiquement des informations et à identifier les violations du droit d'auteur. En 2014, par exemple, jusqu'à 15 % de toutes les modifications ont été effectuées par des robots, et ils étaient souvent en désaccord les uns avec les autres, nous dit-on.
Le Dr Milena Tsvetkova, auteur principal de l'article et chercheur à l'Oxford Internet Institute, a déclaré : "Nous constatons que les bots se comportent différemment dans différents environnements culturels, et leurs conflits sont également très différents de ceux entre les éditeurs humains."
En examinant les retours - lorsqu'un humain ou un bot annule la contribution d'un autre éditeur en restaurant une version antérieure de l'article - Tsvetkova et son équipe ont trouvé des zones de conflit entre le logiciel de traitement de mots automatisé. "Par rapport aux humains, une plus petite proportion des modifications des bots sont des retours et une plus petite proportion est annulée", note le document. (Nous avons déjà brièvement couvert le travail de Tsvetkova et co ici.)
Sur une période de dix ans, chaque bot de Wikipedia anglais a annulé les modifications d'un autre bot en moyenne 105 fois - bien plus que la moyenne de trois fois pour les humains. C'était pire sur la version portugaise, où chaque bot a inversé un autre bot 185 fois en moyenne, sur dix ans. Sur la version allemande, les droïdes étaient beaucoup plus agréables les uns envers les autres - chacun ne changeant le travail de l'autre que 24 fois, en moyenne sur dix ans.
La différence entre les éditions linguistiques de Wikipédia peut s'expliquer : les robots portugais sont simplement plus actifs et éditent plus d'articles que les allemands, par exemple. Fait intéressant, cependant, la diversité culturelle est également un facteur, a déclaré le professeur Taha Yasseri, co-auteur de l'article et chercheur à l'Oxford Internet Institute. Les bots conçus pour fonctionner de la même manière, ou utiliser le même code, finissent parfois par être en désaccord avec chacun sur des points culturels et linguistiques. Et certaines cultures provoquent plus de disputes et de guerres d'édition.
"Les résultats montrent que même la même technologie conduit à des résultats différents, selon l'environnement culturel", a déclaré le professeur Yasseri à The Register.
"Un véhicule automatisé conduira différemment sur une autoroute allemande par rapport à la façon dont il traversera les collines toscanes d'Italie. De même, l'infrastructure en ligne locale que les bots habitent aura une certaine incidence sur leur comportement et leurs performances. Les bots sont conçus par des humains de différents pays, donc lorsqu'ils se rencontrent, cela peut entraîner des affrontements en ligne.
"Certains des articles les plus contestés par les robots concernent Pervez Musharraf, l'Ouzbékistan, l'Estonie, la Biélorussie, la langue arabe, Niels Bohr et Arnold Schwarzenegger."
Cela ne veut pas dire que tous les robots sont programmés de la même manière - les guerres d'édition sont le résultat d'un mélange complexe et grisant de logiciels et de sujets, en fin de compte. Le professeur Yasseri a ajouté : "Nous constatons des différences dans la technologie utilisée dans les différentes éditions linguistiques de Wikipédia, et les différentes cultures des communautés d'éditeurs de Wikipédia impliquées créent des interactions compliquées. Cette complexité est une caractéristique fondamentale qui doit être prise en compte dans toute conversation liée à l'automatisation et l'intelligence artificielle.
Les robots Wiki ne sont pas les seuls agents semi-intelligents affectés par les différences culturelles. Le bot chinois de Microsoft, XiaoIce, était un ange comparé à son homologue américain grossier, Tay, qui a été détourné par des trolls 4chan qui ont trouvé une phrase de commande de porte dérobée pour enseigner des mots sales à Tay. Le contraste de comportement peut s'expliquer en examinant de plus près les règles d'Internet dans les deux pays.
Le monde de l'IA n'est pas particulièrement convivial, semble-t-il. Une expérience récente de DeepMind a montré que les robots IA étaient motivés par la concurrence et n'avaient aucun scrupule à recourir à la violence. ®
Sponsorisé : Devenir un leader pragmatique de la sécurité