Incidentes Asociados

¿Cómo va la IA en los medios? Bueno, aparentemente Microsoft realizó una repugnante encuesta generada por IA junto a un artículo distribuido sobre una mujer que había sido encontrada muerta en Australia, y The Guardian, que publicó el artículo original en cuestión, quiere respuestas.
Como The Guardian informa en su propio relato de incidente, el artículo que [Microsoft volvió a publicar en su portal de noticias MSN](https://www.msn.com/en-au/news/australia/woman-found-dead-at-st-andrews-school- in-sydney-identified-as-water-polo-coach-lilie-james/ar-AA1iQz2H?ocid=entnewsntp&cvid=d86e5dbaf265434bac40c165ffe9bff6&ei=10) se centró en la muerte de una joven de veintitantos años en Sydney, cuyo cuerpo fue encontrado en el escuela donde trabajó como entrenadora de waterpolo.
Como era de esperar, la policía está considerando el caso como un posible asesinato, pero la encuesta sin clases aún cuestionó si los lectores pensaban que la mujer había muerto por suicidio, asesinato o accidente. Debajo de la pregunta, un descargo de responsabilidad de que la encuesta era parte de los "conocimientos de la IA" de la compañía de alguna manera hizo que la encuesta de mal gusto fuera aún más atroz.
En una carta enviada al presidente de Microsoft, Brad Smith, que citó el periódico, la directora ejecutiva de Guardian Media Group, Anna Bateson, dijo que la debacle no sólo podría perturbar a la familia de la joven, sino que también representa un "daño significativo a la reputación" de The Guardian y los periodistas que escribieron el artículo.
"Este es claramente un uso inapropiado de la [IA generativa] por parte de Microsoft en una historia de interés público potencialmente angustiosa, escrita y publicada originalmente por periodistas de The Guardian", escribió Bateson en su carta a Smith.
El director ejecutivo, según el texto completo de la carta proporcionada a The Verge, añadió que aunque Microsoft tiene una licencia para volver a publicar The Guardian en MSN, el editor había pedido previamente al gigante tecnológico que no utilizara su IA "experimental" junto con su trabajo bajo licencia sin la aprobación de la empresa.
Bateson también exigió a Microsoft que explique cómo planea compensar a sus socios de noticias cuando utilice su propiedad intelectual "en la capacitación y el despliegue en vivo de tecnologías de inteligencia artificial dentro de sus proyectos comerciales más amplios".
Microsoft debería, añadió el CEO, asumir "toda la responsabilidad" por la encuesta pasada de moda, que desde entonces ha sido eliminada de [la distribución de la historia por parte de Microsoft](https://www.msn.com/en-au/news/australia/woman -encontrada-muerta-en-la-escuela-st-andrews-en-sydney-identificada-como-entrenadora-de-waterpolo-lilie-james/ar-AA1iQz2H?ocid=entnewsntp&cvid=d86e5dbaf265434bac40c165ffe9bff6&ei=10). En una declaración proporcionada a Futurism, un portavoz de Microsoft dijo que la compañía ha desactivado su función de encuesta y está "investigando la causa del contenido inapropiado".
"Una encuesta no debería haber aparecido junto a un artículo de esta naturaleza", continuó el portavoz, "y estamos tomando medidas para ayudar a evitar que este tipo de error vuelva a ocurrir en el futuro".
Cualquiera que haya estado al tanto de los informes de IA de Futurism este año sabe que el servicio de distribución de Microsoft, que ha tenido su propia IA problemas de plagio — es solo una de las muchas plataformas que incursionan en contenido generado por IA.
Desde BuzzFeed a [CNET](https://futurism.com/cnet-parent-company-ai- content-engine), desastrosos pivotes hacia la IA han dejado en ridículo a numerosos [CEO de medios](https://futurism. com/buzzfeed-ai-replace-content) que hicieron apuestas perdedoras desde el principio en la floreciente tecnología de chatbot y, a pesar de todos esos errores, todavía tenemos que ver una sola implementación realmente impresionante de IA en los medios.