Incidentes Asociados

Un polémico sitio de noticias locales impulsado por inteligencia artificial realmente se metió en problemas esta semana, al acusar accidentalmente a un fiscal de distrito regional de asesinato.
Como informó Techdirt por primera vez, apareció un artículo en Hoodline San Jose, uno de los muchos sitios de noticias locales de la red de medios que abarcan los EE. UU., a principios de este mes con un titular espantoso: "FISCALARIO DEL CONDADO DE SAN MATEO ACUSADO DE ASESINATO EN MEDIO DE LA BÚSQUEDA EN CURSO DE LOS RESTOS DE LA VÍCTIMA".
Eso es algo desolador, sin mencionar un crimen que probablemente habría sido noticia nacional. Pero hay una razón importante por la que no llegó a las ondas nacionales: hubo un asesinato, pero el fiscal no lo cometió. Solo acusaron al tipo que supuestamente lo cometió.
Como descubrió Techdirt, la IA de Hoodline parece haber tomado una publicación de Twitter de X de la cuenta oficial de la oficina del fiscal de distrito de San Mateo, en la que la oficina compartió un comunicado de prensa común y corriente sobre un hombre local, que no era el fiscal, que finalmente fue acusado por la oficina del fiscal por el terrible crimen y lo confundió tanto que decía que el propio fiscal cometió el espantoso asesinato. Todos somos inocentes hasta que fuimos acusados por IA de crímenes.
Después de que Techdirt criticara a Hoodline por el error cataclísmico, una sopa de palabras de nota del editor apareció en la parte superior del artículo. El artículo atribuyó el error a un simple "error tipográfico" que "desafortunadamente cambió el significado" de su contenido, "creando así una ambigüedad sobre el hecho de que el fiscal y el acusado son dos personas diferentes".
En el periodismo se cometen errores, pero en lo que respecta a los errores periodísticos, acusar atrevidamente a la persona equivocada de asesinato (y más aún si se trata de un funcionario local de alto rango) es bastante grave.
Agreguemos que Hoodline, que actualmente es propiedad de un turbio grupo de medios llamado Impress3, está usando abiertamente inteligencia artificial para encontrar y generar "noticias" sintéticas, y es el último error significativo de una organización de medios o un proveedor externo pago que intenta usar inteligencia artificial para producir contenido de manera barata.
El error también pone en tela de juicio las floridas promesas de Hoodline de que su contenido editorial está elaborado con un nivel significativo de supervisión humana.
"Vemos el periodismo como una ciencia creativa y un arte que necesita un toque humano", se lee en la exención de responsabilidad de inteligencia artificial de la empresa. "En nuestra búsqueda de entregar contenido informativo y cautivador, integramos inteligencia artificial (IA) para apoyar y mejorar nuestros procesos editoriales".
El artículo fue atribuido a la firma Eileen Vargas, una de las muchas personas reporteras falsas generadas por IA del sitio web. Como informó Nieman Lab a principios de este año, la amplia lista de periodistas inventados de Hoodline ha generado un amplio escrutinio por fingir diversidad racial en una industria que, en realidad, es abrumadoramente blanca y masculina.
También podría haber algunas implicaciones para Google, una empresa de IA que supuestamente está probando productos de noticias de IA. Según Mike Masnick de Techdirt, descubrió la falsa acusación de IA cuando el artículo de Hoodline apareció en su pestaña de Google News. Y, una vez más, aunque los periodistas cometan errores, el algoritmo de Google que da soporte a acusaciones erróneas de asesinato presentadas por una red de noticias impulsada explícitamente por IA genera un conjunto diferente de dudas.
¿Cuánta libertad se le debe dar a un sitio de noticias con IA y estándares editoriales claramente bajos? ¿Y podemos confiar en los algoritmos de clasificación de noticias para filtrar la creciente marea de contenido generado por algoritmos?
Lo que sí podemos decir con certeza es esto: errores como estos, que un periodista humano que trabaja bajo un proceso editorial sólido tendría muy pocas probabilidades de cometer, probablemente se volverán cada vez más comunes a medida que los editores cedan el control a sistemas de IA baratos y apenas supervisados.