Incidentes Asociados

Análisis Una investigación sobre los bots de Wikipedia ha confirmado que el software de edición automatizado puede ser tan pedante y mezquino como lo son los humanos, a menudo participando en disputas en línea que pueden continuar durante años.
Lo interesante es que los bots se comportan de manera diferente dependiendo de la versión de Wikipedia en la que trabajen: algunos se vuelven más discutidores que otros, según la cultura y los temas que terminan abordando.
Los bots han estado deambulando por la web mundial durante más de 20 años. Algunos pueden ser bastante útiles. Otros lo son menos, lanzan spam y abusos racistas, o se hacen pasar por mujeres hermosas y coquetas en sitios de citas.
Un artículo publicado hoy en PLOS ONE por investigadores de la Universidad de Oxford y el Instituto Alan Turing en el Reino Unido divide a los bots de Internet en dos categorías: benévolos y malévolos.
Los droides de Wikipedia se clasifican como benévolos ya que ayudan a editar artículos, identificar y limpiar el vandalismo, revisar la ortografía, importar información automáticamente e identificar violaciones de derechos de autor. En 2014, por ejemplo, hasta el 15 por ciento de todas las ediciones fueron realizadas por bots y, según nos dijeron, a menudo no estaban de acuerdo entre sí.
La Dra. Milena Tsvetkova, autora principal del artículo e investigadora del Instituto de Internet de Oxford, dijo: "Descubrimos que los bots se comportan de manera diferente en diferentes entornos culturales, y sus conflictos también son muy diferentes a los de los editores humanos".
Al observar las reversiones, cuando un ser humano o un bot anula la contribución de otro editor al restaurar una versión anterior del artículo, Tsvetkova y su equipo encontraron áreas de conflicto entre el software automatizado de disputa de palabras. “En comparación con los humanos, una proporción más pequeña de las ediciones de los bots se revierte y una proporción más pequeña se revierte”, señaló el documento. (Anteriormente cubrimos brevemente el trabajo de Tsvetkova y compañía aquí).
Mirando durante un período de diez años, cada bot en la Wikipedia en inglés deshizo las ediciones de otro bot en promedio 105 veces, mucho más que el promedio de tres veces para los humanos. Fue peor en la versión portuguesa, donde cada bot revirtió a otro bot 185 veces en promedio, durante diez años. En la versión alemana, los droides eran mucho más agradables entre sí: cada uno cambiaba el trabajo del otro solo 24 veces, en promedio durante diez años.
La diferencia entre las ediciones de idiomas de Wikipedia se puede explicar: los bots portugueses son simplemente más activos y editan más artículos que los alemanes, por ejemplo. Curiosamente, sin embargo, la diversidad cultural también es un factor, dijo el profesor Taha Yasseri, coautor del artículo e investigador del Instituto de Internet de Oxford. Los bots diseñados para funcionar de la misma manera, o usar el mismo código, a veces terminan en desacuerdo con cada uno sobre los puntos culturales y de idioma. Y algunas culturas provocan más discusiones y editan guerras.
"Los hallazgos muestran que incluso la misma tecnología conduce a diferentes resultados, según el entorno cultural", dijo el profesor Yasseri a The Register.
"Un vehículo automatizado conducirá de manera diferente en una autopista alemana a como lo hará a través de las colinas toscanas de Italia. De manera similar, la infraestructura local en línea que habitan los bots tendrá cierta influencia en cómo se comportan y su rendimiento. Los bots están diseñados por humanos de diferentes países, por lo que cuando se encuentran, esto puede conducir a enfrentamientos en línea.
"Algunos de los artículos más cuestionados por los bots son sobre Pervez Musharraf, Uzbekistán, Estonia, Bielorrusia, el idioma árabe, Niels Bohr y Arnold Schwarzenegger".
Eso no quiere decir que todos los bots estén programados de la misma manera: las guerras de edición son el resultado de una combinación compleja y embriagadora de software y temas, en última instancia. El profesor Yasseri agregó: "Vemos diferencias en la tecnología utilizada en las diferentes ediciones de idiomas de Wikipedia, y las diferentes culturas de las comunidades de editores de Wikipedia involucradas crean interacciones complicadas. Esta complejidad es una característica fundamental que debe tenerse en cuenta en cualquier conversación relacionada con automatización e inteligencia artificial”.
Los bots de Wiki no son los únicos agentes semiinteligentes afectados por las diferencias culturales. El bot chino de Microsoft, XiaoIce, era un ángel en comparación con su contraparte estadounidense malhablada, Tay, que fue secuestrada por trolls de 4chan que encontraron una frase de comando de puerta trasera para enseñarle palabras obscenas a Tay. El contraste en el comportamiento se puede explicar al observar m ás de cerca las reglas de Internet en ambos países.
Parece que el mundo de la IA no es particularmente amistoso. Un experimento reciente de DeepMind mostró que los bots de IA estaban impulsados por la competencia y no tenían reparos en recurrir a la violencia. ®
Patrocinado: convertirse en un líder de seguridad pragmático