Journal des citations pour l'incident 7

Description: Wikipedia bots meant to remove vandalism clash with each other and form feedback loops of repetitve undoing of the other bot's edits.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique
Présumé : Un système d'IA développé et mis en œuvre par Wikipedia, endommagé Wikimedia Foundation , Wikipedia Editors and Wikipedia Users.

Statistiques d'incidents

ID
7
Nombre de rapports
6
Date de l'incident
2017-02-24
Editeurs
Sean McGregor

Classifications de taxonomie CSETv0

Détails de la taxonomie

Full Description

Wikipedia bots meant to help edit articles through artificial intelligence clash with each other, undoing the other's edits repetitively. The bots are meant to remove vandalism on the open-source, open-input site, however they have begun to disagree with each other and form infintie feedback loops of correcting the other's edits. Two notable cases are the face off between Xqbot and Darnkessbot that has led to 3,629 edited articles between 2009-2010 and between Tachikoma and Russbot leading to more than 3,000 edits. These edits have occurred across articles in 13 languages on Wikipedia, with the most ocurring in Portuguese language articles and the least occurring in German language articles. The whole situation has been described as a "bot-on-bot editing war."

Short Description

Wikipedia bots meant to remove vandalism clash with each other and form feedback loops of repetitve undoing of the other bot's edits.

Severity

Negligible

Harm Type

Other:Harm to publicly available information

AI System Description

Wikipedia editing bots meant to remove vandalism on the site

System Developer

Wikipedia

Sector of Deployment

Information and communication

Relevant AI functions

Perception, Cognition, Action

AI Techniques

Content editing bot

AI Applications

AI content creation, AI content editing

Location

Global

Named Entities

Wikipedia

Technology Purveyor

Wikipedia

Beginning Date

2001-01-01T00:00:00.000Z

Ending Date

2010-01-01T00:00:00.000Z

Near Miss

Unclear/unknown

Intent

Accident

Lives Lost

No

Data Inputs

Wikipedia articles, edits from other bots

Classifications de taxonomie CSETv1

Détails de la taxonomie

Harm Distribution Basis

none

Sector of Deployment

information and communication

Une étude révèle des guerres d'édition bot-on-bot qui font rage sur les pages de Wikipedia
theguardian.com · 2017

Pour beaucoup, ce n'est rien de plus que la première escale lorsqu'une question tatillonne se pose. On trouve sur ses pages des réponses aux mystères du sort de la baudroie mâle, aux joies du dorodango et à la mort improbable d'Eschyle.

Mai…

Les gens ont construit des robots IA pour améliorer Wikipedia. Puis ils ont commencé à se chamailler dans de petites guerres d'édition, soupir
theregister.co.uk · 2017

Une enquête sur les robots de Wikipédia a confirmé que le logiciel d'édition automatisé peut être tout aussi pédant et mesquin que les humains - se livrant souvent à des querelles en ligne qui peuvent durer des années.

Ce qui est intéressan…

Les robots d'édition automatisés de Wikipedia se battent depuis une décennie
huffingtonpost.com.au · 2017

Il s'avère que les "bots" d'édition automatique de Wikipédia se livrent une cyber-guerre entre eux depuis plus d'une décennie en modifiant les corrections des uns et des autres - et la situation s'aggrave.

Des chercheurs de l'Université d'O…

Les robots wiki qui se disputent depuis des années mettent en lumière l'avenir troublé de l'IA
seeker.com · 2017

Les robots wiki qui se disputent depuis des années mettent en lumière l'avenir troublé de l'IA

Le comportement des robots est souvent imprévisible et les conduit parfois à produire des erreurs encore et encore dans une boucle de rétroaction…

Les bots Internet se battent parce qu'ils sont tous trop humains
wired.com · 2017

Getty Images

Personne n'a vu la crise venir : un effort de vandalisme coordonné pour insérer des références à Squidward dans des articles totalement sans rapport avec Squidward. En 2006, Wikipédia commençait vraiment à démarrer et ne pouvai…

Danger, danger ! 10 exemples alarmants d'IA devenue sauvage
infoworld.com · 2017

La science-fiction est moche avec des histoires d'intelligence artificielle devenue folle. Il y a HAL 9000, bien sûr, et l'infâme système Skynet des films "Terminator". L'année dernière, le sinistre AI Ultron a failli vaincre les Avengers, …

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents