Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4192

Incidentes Asociados

Incidente 8252 Reportes
AI News Site Hoodline San Jose Erroneously Misidentifies San Mateo District Attorney as Murder Suspect

Loading...
Un sitio de noticias impulsado por inteligencia artificial acusa accidentalmente a un fiscal de distrito de asesinato
futurism.com · 2024

Un polémico sitio de noticias locales impulsado por inteligencia artificial realmente se metió en problemas esta semana, al acusar accidentalmente a un fiscal de distrito regional de asesinato.

Como informó Techdirt por primera vez, apareció un artículo en Hoodline San Jose, uno de los muchos sitios de noticias locales de la red de medios que abarcan los EE. UU., a principios de este mes con un titular espantoso: "FISCALARIO DEL CONDADO DE SAN MATEO ACUSADO DE ASESINATO EN MEDIO DE LA BÚSQUEDA EN CURSO DE LOS RESTOS DE LA VÍCTIMA".

Eso es algo desolador, sin mencionar un crimen que probablemente habría sido noticia nacional. Pero hay una razón importante por la que no llegó a las ondas nacionales: hubo un asesinato, pero el fiscal no lo cometió. Solo acusaron al tipo que supuestamente lo cometió.

Como descubrió Techdirt, la IA de Hoodline parece haber tomado una publicación de Twitter de X de la cuenta oficial de la oficina del fiscal de distrito de San Mateo, en la que la oficina compartió un comunicado de prensa común y corriente sobre un hombre local, que no era el fiscal, que finalmente fue acusado por la oficina del fiscal por el terrible crimen y lo confundió tanto que decía que el propio fiscal cometió el espantoso asesinato. Todos somos inocentes hasta que fuimos acusados por IA de crímenes.

Después de que Techdirt criticara a Hoodline por el error cataclísmico, una sopa de palabras de nota del editor apareció en la parte superior del artículo. El artículo atribuyó el error a un simple "error tipográfico" que "desafortunadamente cambió el significado" de su contenido, "creando así una ambigüedad sobre el hecho de que el fiscal y el acusado son dos personas diferentes".

En el periodismo se cometen errores, pero en lo que respecta a los errores periodísticos, acusar atrevidamente a la persona equivocada de asesinato (y más aún si se trata de un funcionario local de alto rango) es bastante grave.

Agreguemos que Hoodline, que actualmente es propiedad de un turbio grupo de medios llamado Impress3, está usando abiertamente inteligencia artificial para encontrar y generar "noticias" sintéticas, y es el último error significativo de una organización de medios o un proveedor externo pago que intenta usar inteligencia artificial para producir contenido de manera barata.

El error también pone en tela de juicio las floridas promesas de Hoodline de que su contenido editorial está elaborado con un nivel significativo de supervisión humana.

"Vemos el periodismo como una ciencia creativa y un arte que necesita un toque humano", se lee en la exención de responsabilidad de inteligencia artificial de la empresa. "En nuestra búsqueda de entregar contenido informativo y cautivador, integramos inteligencia artificial (IA) para apoyar y mejorar nuestros procesos editoriales".

El artículo fue atribuido a la firma Eileen Vargas, una de las muchas personas reporteras falsas generadas por IA del sitio web. Como informó Nieman Lab a principios de este año, la amplia lista de periodistas inventados de Hoodline ha generado un amplio escrutinio por fingir diversidad racial en una industria que, en realidad, es abrumadoramente blanca y masculina.

También podría haber algunas implicaciones para Google, una empresa de IA que supuestamente está probando productos de noticias de IA. Según Mike Masnick de Techdirt, descubrió la falsa acusación de IA cuando el artículo de Hoodline apareció en su pestaña de Google News. Y, una vez más, aunque los periodistas cometan errores, el algoritmo de Google que da soporte a acusaciones erróneas de asesinato presentadas por una red de noticias impulsada explícitamente por IA genera un conjunto diferente de dudas.

¿Cuánta libertad se le debe dar a un sitio de noticias con IA y estándares editoriales claramente bajos? ¿Y podemos confiar en los algoritmos de clasificación de noticias para filtrar la creciente marea de contenido generado por algoritmos?

Lo que sí podemos decir con certeza es esto: errores como estos, que un periodista humano que trabaja bajo un proceso editorial sólido tendría muy pocas probabilidades de cometer, probablemente se volverán cada vez más comunes a medida que los editores cedan el control a sistemas de IA baratos y apenas supervisados.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd