Incidentes Asociados
A medida que la IA comienza a introducirse cada vez más en nuestras vidas, sus limitaciones se vuelven más obvias al encontrarse con situaciones que sus creadores tal vez no hubieran imaginado. El último ejemplo proviene de Microsoft, que utilizó AI para insertar encuestas junto a las noticias para que las realicen sus lectores, lo que en teoría aumenta compromiso. Recientemente, insertó una encuesta sobre una mujer en Sydney que fue encontrada muerta, y la encuesta preguntaba a los lectores cuál pensaban que era la causa de la muerte.
El artículo periodístico trataba sobre un entrenador de waterpolo en Sydney cuyo cuerpo fue encontrado en el gimnasio de la escuela. La encuesta resultante preguntó a los lectores cuál pensaban que era la causa, con opciones que incluían asesinato, accidente o suicidio. El artículo se originó con The Guardian, que criticó a Microsoft por incluir una encuesta tan insensible junto con su artículo en el agregador de noticias de la compañía, Microsoft Start (MSN.com en la web). Según a Axios, la encuesta errónea ha provocado que Microsoft suspenda su generador de encuestas impulsado por IA hasta puede investigar el asunto.

Axios guardó la encuesta antes de que Microsoft la eliminara de la historia tras la protesta de los lectores. Crédito: Axios
La medida de Microsoft fue demasiado pequeña y demasiado tarde, según The Guardian, que recibió fuertes críticas de los lectores que pensaban que era responsable de la encuesta. La directora ejecutiva de Guardian, Anna Bateson, escribió una ardiente carta al presidente de Microsoft, Brad Smith, sobre la situación, reiterando el deseo del periódico de que nunca quisiera que aparecieran encuestas junto con ningún contenido sindicado. "Esta aplicación de genAI de Microsoft es exactamente el tipo de caso del que hemos advertido en relación con las noticias", escribió Bateson. El director ejecutivo instó a Microsoft a aclarar a los lectores que AI, no The Guardian, había realizado la encuesta.
Microsoft ha asumido la responsabilidad de la insensible encuesta. En una declaración a Axios, escribió: "Una encuesta no debería haber aparecido junto con un artículo de esta naturaleza y estamos tomando medidas para ayudar a evitar que este tipo de error vuelva a ocurrir en el futuro", afirmó Microsoft.
El grito de Microsoft destaca la dificultad de utilizar la inteligencia artificial y los algoritmos para reemplazar el juicio humano. Según a CNN, el servicio de recopilación de noticias de Microsoft ha vuelto a publicar numerosas historias falsas recientemente. Anteriormente había empleado a más de 800 editores en todo el mundo para seleccionar contenido, pero recientemente había reducido ese número debido a la "automatización", que muchos editores interpretaron como que la IA ahora estaba haciendo su trabajo.
En todo caso, el incidente sólo resalta la necesidad de que las empresas de medios aclaren cuándo utilizan contenido generado por IA. Queda por ver si Microsoft tomará esa ruta cuando sus encuestas vuelvan a estar en línea.