Incidentes Asociados

The Guardian ha acusado a Microsoft de dañar su reputación periodística al publicar una encuesta generada por IA especulando sobre la causa de la muerte de una mujer junto a un artículo del editor de noticias.
Microsoft [publicación del servicio de agregación de noticias](https://www.msn.com/en-au/news/australia/woman-found-dead-at-st-andrews-school-in-sydney-identified-as-water- polo-coach-lilie-james/ar-AA1iQz2H?ocid=entnewsntp&cvid=d86e5dbaf265434bac40c165ffe9bff6&ei=10) la encuesta automatizada junto a una historia del periódico The Guardian sobre la muerte de Lilie James, una entrenadora de waterpolo de 21 años que fue [encontrada muerta con lesiones graves en la cabeza en una escuela de Sydney la semana pasada](https://www.theguardian.com/australia-news/2023/oct/31/lilie-james-australia-sydney-school-coach-st-andrews-cathedral- muerte).
La encuesta, creada por un programa de inteligencia artificial, preguntaba: "¿Cuál crees que es la razón detrás de la muerte de la mujer?" Luego se pidió a los lectores que eligieran entre tres opciones: asesinato, accidente o suicidio.
Los lectores reaccionaron con enojo a la encuesta, que posteriormente fue eliminada, aunque los comentarios muy críticos de los lectores sobre la encuesta eliminada todavía estaban en línea el martes por la mañana.
Un lector dijo que uno de los periodistas del Guardian que firmaba el artículo adyacente, que no tuvo nada que ver con la encuesta, debería ser despedido. Otro escribió: “Ésta tiene que ser la encuesta más patética y repugnante que he visto jamás”.
La directora ejecutiva de Guardian Media Group, Anna Bateson, expresó sus preocupaciones sobre la encuesta generada por IA en una carta al presidente de Microsoft, Brad Smith.
Dijo que el incidente fue potencialmente angustioso para la familia de James y había causado un “daño significativo a la reputación” de la organización, además de dañar la reputación de los periodistas que escribieron la historia.
"Este es claramente un uso inapropiado de genAI [IA generativa] por parte de Microsoft en una historia de interés público potencialmente angustiosa, escrita y publicada originalmente por periodistas de The Guardian", escribió.
Bateson añadió que había demostrado “el importante papel que desempeña un marco sólido de derechos de autor al permitir que los editores puedan negociar los términos en los que se utiliza nuestro periodismo”.
Microsoft tiene una licencia con The Guardian para publicar el periodismo de la organización de noticias. El artículo de The Guardian y la encuesta que lo acompaña aparecieron en Microsoft Start, un sitio web y una aplicación de agregación de noticias.
Bateson pidió garantías a Smith de que: Microsoft no aplicará tecnología experimental de inteligencia artificial en el periodismo del Guardian o junto con él sin la aprobación del editor de noticias; y Microsoft siempre dejará claro a los usuarios cuándo se utilizan herramientas de inteligencia artificial para crear unidades y funciones adicionales junto a marcas de noticias confiables como The Guardian. Bateson dijo que había un “argumento sólido” para que Microsoft agregara una nota al artículo asumiendo la responsabilidad de la encuesta.
El director ejecutivo de GMG añadió que si bien la [cumbre de seguridad de IA] de esta semana(https://www.theguardian.com/technology/2023/oct/30/who-is-attending-sunaks-ai-safety-summit-and-what -discutirán) estaba analizando la seguridad a largo plazo, Microsoft y otras plataformas necesitaban delinear cómo priorizarían la información confiable, una recompensa justa por la concesión de licencias de periodismo y más transparencia y salvaguardias para los consumidores en torno al uso de la IA.
Un portavoz de Microsoft dijo: “Hemos desactivado las encuestas generadas por Microsoft para todos los artículos de noticias y estamos investigando la causa del contenido inapropiado. Una encuesta no debería haber aparecido junto con un artículo de esta naturaleza y estamos tomando medidas para ayudar a evitar que este tipo de error vuelva a ocurrir en el futuro”.