Incidentes Asociados
El editor de un periódico acusó a Microsoft de dañar su reputación después de que apareciera una encuesta generada por IA junto a uno de sus artículos en una plataforma de agregación.
The Guardian informado en Lilie James, un entrenador de waterpolo de 21 años que fue encontrado muerto con graves heridas en la cabeza en una escuela secundaria en Sydney, Australia.
Junto al artículo en Microsoft Start apareció una encuesta generada por IA en la que se pedía a los lectores que votaran si pensaban que la mujer había muerto por asesinato, suicidio o accidente. australia/mujer-encontrada-muerta-en-la-escuela-st-andrews-en-sydney-identificada-como-entrenadora-de-waterpolo-lilie-james/ar-AA1iQz2H?ocid=entnewsntp&cvid=d86e5dbaf265434bac40c165ffe9bff6&ei=10).
Algunos lectores que vieron la encuesta junto con la historia de The Guardian creyeron que fue creada por el medio, y uno de ellos comentó que el autor del artículo debería ser despedido, [informó The Guardian] (https://www.theguardian.com/media/2023/ 31/oct/microsoft-acusado-de-dañar-la-reputación-de-los-guardianes-con-una-encuesta-generada-por-ai?CMP=Share_iOSApp_Other)
Anna Bateson, directora ejecutiva de Guardian Media Group, acusó a Microsoft de causar "un daño significativo a la reputación" del editor y de los periodistas que escribieron la historia.
"Este es claramente un uso inapropiado de genAI por parte de Microsoft en una historia de interés público potencialmente angustiosa, escrita y publicada originalmente por periodistas de The Guardian", escribió Bateson en una carta al presidente de Microsoft, Brad Smith.
También pidió a la empresa de software que dejara de utilizar IA experimental junto con las noticias de The Guardian. Microsoft tiene una licencia para publicar contenido del medio en sus plataformas.
Lenore Taylor, editora de Guardian Australia, dijo a Insider que el incidente mostró cuán poco confiable puede ser la IA, así como cómo podría agravar la angustia de todos los involucrados en incidentes como la muerte de James.
Desde entonces, la encuesta fue retirada, pero Bateson pidió a Smith que dejara claro que Microsoft tenía "toda la responsabilidad" por ello.
Microsoft dijo que estaba investigando la causa del "contenido inapropiado" y había desactivado las encuestas para artículos de noticias.
"Una encuesta no debería haber aparecido junto a un artículo de esta naturaleza y estamos tomando medidas para ayudar a evitar que este tipo de error vuelva a ocurrir en el futuro", dijo un representante de Microsoft a Insider.
El fabricante de Windows previamente destripó su equipo editorial a favor de un sistema de agregación de noticias impulsado por IA. En agosto, Microsoft tuvo que eliminar una serie de artículos ofensivos y extraños publicados por "Microsoft Travel" y negó que AI fuera responsable.
Mientras los expertos se dirigen al Reino Unido para una cumbre sobre la seguridad de la IA el jueves, la encuesta es otro ejemplo de los riesgos de depender de la automatización, particularmente en contextos sensibles.