Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1126

Incidentes Asociados

Incidente 76 Reportes
Wikipedia Vandalism Prevention Bot Loop

Loading...
Estudio revela guerras de edición bot-on-bot en las páginas de Wikipedia
theguardian.com · 2017

Para muchos no es más que el primer puerto de escala cuando surge una pregunta inquietante. En sus páginas se encuentran respuestas a misterios del destino del rape macho, las alegrías del dorodango y la improbable muerte de Esquilo.

Pero debajo de la superficie de Wikipedia se encuentra un mundo turbio de conflicto duradero. Un nuevo estudio de científicos informáticos descubrió que la enciclopedia en línea es un campo de batalla donde las guerras silenciosas se han desatado durante años.

Desde que se lanzó Wikipedia en 2001, sus millones de artículos han sido revisados por robots de software, o simplemente "bots", creados para corregir errores, agregar enlaces a otras páginas y realizar otras tareas básicas de limpieza.

En los primeros días, los bots eran tan raros que trabajaban de forma aislada. Pero con el tiempo, el número desplegado en la enciclopedia explotó con consecuencias inesperadas. Cuanto más entraban en contacto los bots entre sí, más se trababan en combate, deshaciendo las ediciones de los demás y cambiando los enlaces que habían agregado a otras páginas. Algunos conflictos solo terminaron cuando uno u otro bot quedó fuera de combate.

“Las peleas entre bots pueden ser mucho más persistentes que las que vemos entre personas”, dijo Taha Yasseri, quien trabajó en el estudio en el Instituto de Internet de Oxford. "Los humanos generalmente se enfrían después de unos días, pero los bots pueden continuar durante años".

Los hallazgos surgieron de un estudio que analizó el conflicto entre bots en los primeros diez años de existencia de Wikipedia. Los investigadores de Oxford y el Instituto Alan Turing de Londres examinaron los historiales de edición de las páginas en 13 ediciones en diferentes idiomas y registraron cuándo los bots deshacían los cambios de otros bots.

No esperaban encontrar mucho. Los bots son programas de computadora simples que están escritos para mejorar la enciclopedia. No están destinados a trabajar uno contra el otro. “Teníamos expectativas muy bajas de ver algo interesante. Cuando piensas en ellos, son muy aburridos”, dijo Yasseri. “El mismo hecho de que vimos muchos conflictos entre bots fue una gran sorpresa para nosotros. Son buenos bots, se basan en buenas intenciones y se basan en la misma tecnología de código abierto”.

Si bien algunos conflictos reflejaron los que se encuentran en la sociedad, como los mejores nombres para usar en territorios en disputa, otros fueron más intrigantes. Al describir su investigación en un artículo titulado Even Good Bots Fight en la revista Plos One, los científicos revelan que entre los artículos más cuestionados había páginas sobre el expresidente de Pakistán Pervez Musharraf, el idioma árabe, Niels Bohr y Arnold Schwarzenegger.

Cómo los bots se están apoderando del mundo | Dan O'Hara y Luke Robert Mason Leer más

Una de las batallas más intensas se desarrolló entre Xqbot y Darknessbot, que luchó por 3629 artículos diferentes entre 2009 y 2010. Durante el período, Xqbot deshizo más de 2000 ediciones realizadas por Darknessbot, y Darknessbot tomó represalias deshaciendo más de 1700 de los cambios de Xqbot. Los dos se enfrentaron en páginas sobre todo tipo de temas, desde Alejandro de Grecia y el distrito de Banqiao en Taiwán hasta el club de fútbol Aston Villa.

Otro bot que lleva el nombre de Tachikoma, la inteligencia artificial de la serie de ciencia ficción japonesa Ghost in the Shell, tuvo una batalla de dos años con Russbot. Los dos deshicieron más de mil ediciones por parte del otro en más de 3000 artículos que van desde la campaña presidencial de Hillary Clinton en 2008 hasta la demografía del Reino Unido.

El estudio encontró diferencias sorprendentes en las guerras de bots que se desarrollaron en las ediciones de Wikipedia en varios idiomas. Las ediciones alemanas tuvieron la menor cantidad de peleas de bots, y los bots deshicieron las ediciones de otros en promedio solo 24 veces en una década. Pero la historia era diferente en la Wikipedia portuguesa, donde los bots deshacían el trabajo de otros bots en promedio 185 veces en diez años. La versión en inglés vio a los bots entrometerse en los cambios de los demás en promedio 105 veces por década.

Los hallazgos muestran que incluso los algoritmos simples que se sueltan en Internet pueden interactuar de manera impredecible. En muchos casos, los bots entraron en conflicto porque siguieron reglas ligeramente diferentes entre sí.

Yasseri cree que el trabajo sirve como una advertencia temprana para las empresas que desarrollan bots y herramientas de inteligencia artificial (IA) más potentes. Una IA que funciona bien en el laboratorio puede comportarse de manera impredecible en la naturaleza. “Tomemos los autos sin conductor. Una cosa muy simple que a menudo se pasa por alto es que se usarán en diferentes culturas y entornos”, dijo Yasseri. “Un automóvil automatizado se comportará de manera diferente en la autopista alemana a como lo hará en las carreteras de Italia. Las regulaciones son diferentes, las leyes son diferentes y la cultura de manejo es muy diferente”, dijo.

A medida que más decisiones, opciones y servicios dependan de que los bots funcionen correctamente juntos, la cooperación armoniosa será cada vez más importante. Como señalan los autores en su último estudio: "Sabemos muy poco sobre la vida y la evolución de nuestros minions digitales".

A principios de este mes, los investigadores de DeepMind de Google compararon las IA entre sí para ver si cooperaban o f

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd