Incidentes Asociados
Microsoft ha cerrado todas sus encuestas generadas por IA sobre artículos de noticias y ha iniciado una investigación después de que Guardian Media Group criticó al gigante tecnológico por una encuesta que coincidía con una historia sobre la muerte de una mujer.
En las noticias: "Una encuesta no debería haber aparecido junto con un artículo de esta naturaleza, y estamos tomando medidas para ayudar a evitar que este tipo de error vuelva a ocurrir en el futuro", dijo Microsoft en un comunicado a Axios el miércoles.
- El comunicado de Microsoft decía que el gigante tecnológico había "desactivado las encuestas generadas por Microsoft para todos los artículos de noticias" y está "investigando la causa del contenido inapropiado".
Trasfondo: El martes, The Guardian Media Group exigió que Microsoft asumiera la responsabilidad pública de la encuesta, que se realizó junto a un [artículo](https://www.theguardian.com/australia-news/2023/oct/26/womans- body-found-at-central-sydney-school-as-police-investigate-suspicious-death) sobre una mujer encontrada muerta en una escuela en Australia, según una carta obtenida por Axios.
- La encuesta, que se realizó dentro de la plataforma de agregación de noticias seleccionada de Microsoft, Microsoft Start, preguntó al lector cuál pensaba que era la causa de la muerte de la mujer.
- "Este es claramente un uso inapropiado de genAI por parte de Microsoft en una historia de interés público potencialmente angustiosa, escrita y publicada originalmente por periodistas de Guardian", escribió la directora ejecutiva de Guardian, Anna Bateson, al presidente de Microsoft, Brad Smith.
Por qué es importante: Aunque Microsoft finalmente eliminó la encuesta, el daño ya estaba hecho.
- Los lectores criticaron a The Guardian y al autor del artículo en la sección de comentarios de la encuesta, a quienes asumieron que eran responsables del error garrafal.
- "Esta aplicación de genAI por parte de Microsoft es exactamente el tipo de instancia sobre la que hemos advertido en relación con las noticias", decía la carta de Bateson, "y una razón clave por la que previamente hemos solicitado a sus equipos que no queremos el genAI experimental de Microsoft. tecnologías aplicadas al periodismo con licencia de The Guardian."
Detalles: Bateson instó a Microsoft a agregar una nota a la encuesta, argumentando que Microsoft debería asumir "toda la responsabilidad por ello".
-
También pidió garantías a Microsoft de que no aplicará "tecnologías experimentales en o junto con el periodismo autorizado por Guardian" sin su aprobación explícita.
-
Además, acusó a Microsoft de no "responder sustancialmente" a la solicitud de The Guardian de discutir cómo Microsoft pretende compensar a los editores de noticias por el uso de su propiedad intelectual "en la capacitación y el despliegue en vivo de tecnologías de IA dentro de sus proyectos comerciales más amplios".
Panorama general: Las redacciones han estado buscando formas de aprovechar la inteligencia artificial de manera responsable y, al mismo tiempo, garantizar que no comprometan su contenido editorial.
- Muchos están presionando actualmente a las empresas de tecnología para que les paguen por usar su contenido para entrenar modelos de IA.
Qué mirar: Tras un vergonzoso experimento de publicación de CNET a principios de este año, más empresas de medios están incluyendo divulgaciones del uso de IA en sus productos editoriales.
- En su carta a Smith, Bateson pidió que Microsoft siempre deje claro a los usuarios "dondequiera que genAI esté involucrado en la creación de unidades y funciones adicionales que se apliquen al periodismo de terceros de marcas de noticias confiables como The Guardian".
Nota del editor: esta historia se actualizó para incluir una declaración de Microsoft.