Incidentes Asociados

imágenes falsas
Nadie vio venir la crisis: un esfuerzo vandálico coordinado para insertar referencias a Calamardo en artículos totalmente ajenos a Calamardo. En 2006, Wikipedia realmente estaba comenzando a ponerse en marcha, y realmente no podía permitirse el lujo de tener ninguna broma relacionada con SpongeBob SquarePants que mancillara la creciente reputación del sitio. Fue una vergüenza. Alguien tenía que detener a Calamardo.
La comunidad de Wikipedia sabía que no podía movilizar a los editores humanos para enfrentar a los trolls: el ataque fue demasiado grande, el trabajo demasiado tedioso. Entonces, en cambio, un administrador improvisó un bot que automáticamente marcaba las inserciones errantes del cefalópodo que no debe ser nombrado. Y funcionó. Wikipedia repelió la amenaza de Calamardo y, al hacerlo, formó una poderosa alianza con los bots. Hoy en día, cientos de asistentes algorítmicos luchan contra todo tipo de vándalos, corrigen errores tipográficos e incluso crean artículos por su cuenta. Wikipedia sería un desastre sin ellos.
Pero sucede algo divertido cuando encierras a un grupo de bots en una habitación virtual: a veces no se llevan bien. A veces, un par de bots descienden en una pelea de bofetadas, sobrescribiendo las decisiones de los demás miles de veces durante años. Según un nuevo estudio en PLOS ONE, sucede mucho. ¿Por qué? Porque no importa cuán fríos y calculadores puedan parecer los bots, tienden a actuar demasiado humanos. Y estos son los bots agradables y nada racistas de Internet. Imagine asistentes digitales personales impulsados por IA en la misma habitación gritándose todo el día. Google Home versus Alexa, ¿alguien?
En Wikipedia, los bots manejan el trabajo insoportablemente aburrido y monótono que volvería loco a un ejército de editores humanos, si un ejército de editores pudiera siquiera mantenerse al día con todo el trabajo. Un bot no se cansa. No se enoja, bueno, al menos no con los humanos. Está programado para una tarea, y se encarga de esa tarea con una consistencia y devoción que los humanos no pueden igualar.
Si bien los desacuerdos entre los editores humanos de Wikipedia tienden a esfumarse, las peleas entre bots pueden prolongarse durante meses o años. El estudio encontró que los bots son mucho más propensos a discutir que los editores humanos en la versión en inglés de Wikipedia: cada bot anuló a otro bot un promedio de 105 veces en el transcurso de una década, en comparación con un promedio de tres veces para los editores humanos. Los bots se dejan llevar porque simplemente no saben nada mejor; después de todo, son solo fragmentos de código.
Pero eso no significa que no sean dignos de confianza. Los bots manejan tareas relativamente simples como la revisión ortográfica, no toman decisiones editoriales más importantes. De hecho, es solo gracias al trabajo de los bots que los editores humanos pueden concentrarse en esos problemas generales. Aún así, cuando no están de acuerdo, no debaten racionalmente como lo harían los humanos. Son sirvientes de su código. Y su gran alcance (escaneo continuo de más de 5 millones de artículos solo en la Wikipedia en inglés) significa que encuentran muchos problemas para corregir y potencialmente estar en desacuerdo.
Y los bots hacen mucho más que su parte justa de trabajo. La cantidad de editores humanos en la Wikipedia en inglés puede eclipsar la cantidad de bots (unos 30 000 editores de meatspace activos frente a unos 300 editores activos creados puramente fuera del código), pero los bots son colaboradores increíblemente productivos. “Ni siquiera son del todo visibles si los pones en un mapa entre otros editores”, dice Taha Yasseri de la Universidad de Oxford, coautor del estudio. “Pero hacen mucho. La proporción de todas las ediciones realizadas por robots en diferentes idiomas variaría del 10 por ciento, hasta el 40 o incluso el 50 por ciento en ciertas ediciones de idiomas”. Sin embargo, Wikipedia no ha descendido a un sangriento campo de batalla de bots. Eso se debe a que los humanos monitorean de cerca a los bots, que hacen mucho más bien que mal.
Robots bárbaros
Pero los bots inevitablemente chocan, sostiene Yasseri. Por ejemplo, el estudio encontró que en el transcurso de tres años, dos bots que monitorean los redireccionamientos dobles en Wikipedia tuvieron bastante riña. (Una redirección ocurre cuando, por ejemplo, una búsqueda de "Reino Unido" lo reenvía al artículo de "Reino Unido". Una redirección doble es una redirección que reenvía a otra redirección, un gran no-no de Wikipedia). En unos 1800 artículos , Scepbot revirtió las ediciones de RussBot un total de 1031 veces, mientras que RussBot le devolvió el favor 906 veces. Esto sucede debido a discrepancias en las convenciones de nomenclatura: RussBot, por ejemplo, hizo que "Ricotta al forno" redirigiese a "Ricotta cheese", cuando antes redirigía a "Ricotta". Luego entró Scepbot y revirtió ese cambio.
Por su parte, Wikipedia cuestiona que estos bots no estén realmente "peleando".
"Si, por ejemplo, Scepbot hubiera realizado la limpieza de redirección doble original y RussBot realizara la segunda limpieza de redirección doble, entonces parecería que se están 'revirtiendo' entre sí", dice Aaron Halfaker, científico investigador principal de la Fundación Wikimedia. . "Pero en realidad, los bots están colaborando juntos para mantener limpio el gráfico de redirección de la wiki".
"Somos perfectamente conscientes de qué bots se están ejecutando en este momento". Aaron Halfaker, Fundación Wikimedia
Aún así, Halfaker reconoce que los bots revelan