Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3240

Incidentes Asociados

Incidente 5771 Reporte
Bankrate's Resumption of AI-Generated Content Allegedly Continuing to Produce Inaccurate and Misleading Information

Loading...
Bankrate publica un artículo generado por IA y lo elimina cuando señalamos que está lleno de errores
futurism.com · 2023

El sitio de finanzas Bankrate ha comenzado a publicar artículos generados por IA nuevamente e insiste en que esta vez han sido verificados meticulosamente por un periodista humano antes de ser publicados.

"Este artículo fue generado utilizando tecnología de automatización y minuciosamente editado y verificado por un editor de nuestro equipo editorial", se lee en un mensaje al final de los nuevos artículos de IA, mientras que una garantía separada afirma que un "equipo dedicado de editores de Bankrate" trabajar para "editar y verificar minuciosamente el contenido, asegurando que la información sea precisa, autorizada y útil para nuestra audiencia".

Tendría sentido que el liderazgo del sitio estuviera profundamente preocupado por lograr que cada detalle fuera correcto.

Después de que Bankrate y su sitio hermano CNET comenzaron a publicar artículos generados por IA a finales del año pasado, Futurism descubrió que los artículos eran plagado de errores fácticos e incluso aparentemente material plagiado. El Washington Post calificó el asunto como un "desastre periodístico", y el LA Times bromeó que el comportamiento de la IA haría "expulsar a un estudiante humano o despedir a un periodista". CNET y Bankrate, ambos propiedad de una empresa de medios llamada Red Ventures, supuestamente valen miles de millones de dólares - pausó la publicación de contenido de IA indefinidamente después de la pelea.

Al menos hasta ahora. Sin fanfarrias, la semana pasada Bankrate silenciosamente comenzó a publicar una vez más nuevos artículos generados por IA, que describió en un descargo de responsabilidad como "mantenidos por una plataforma interna de generación de lenguaje natural que utiliza bases de datos estándar de la industria", sugiriendo que CNET pronto podría reiniciar el programa también.

Los temas de los nuevos artículos son mundanos y están claramente diseñados para captar a los lectores que buscan información en Google, con títulos como "Documentos necesarios para la aprobación previa de una hipoteca" y "Los mejores lugares para vivir en Colorado en 2023".

Con tantos ojos puestos en el uso de la IA por parte de la empresa, uno esperaría que estos primeros artículos nuevos sobre IA, como mínimo, fueran examinados minuciosamente internamente antes de su publicación. En cambio, un examen básico revela que la IA de la empresa todavía está cometiendo errores rudimentarios, y que su personal humano, sin importar los ejecutivos que impulsan el uso de la IA, todavía no los detecta antes de que terminen frente a lectores desprevenidos.

Por ejemplo, considere ese artículo sobre los mejores lugares para vivir en Colorado. Es extremadamente fácil verificar las afirmaciones de la IA, porque el artículo presenta de manera destacada un enlace a una página "[metodología"] (https://www.bankrate.com/real-estate/best-places-to-live/methodology /) - evidentemente destinado a reforzar la posición del sitio en los resultados de los motores de búsqueda al indicar a entidades como el rastreador web de Google que su información es precisa - que documenta con precisión de dónde supuestamente el sitio obtiene los datos en sus artículos "Mejores lugares para vivir".

Comparando las afirmaciones de la IA con los datos disponibles públicamente, estos son algunos de los errores que cometió:

-Afirmó que el precio medio de una vivienda en Boulder es de 1.075.000 dólares. En realidad, según los datos de Redfin que cita Bankrate, la cifra real es más de un cuarto de millón de dólares inferior, alrededor de 764.000 dólares.

-Afirmó que el salario promedio de Boulder es de $79,649. En realidad, los datos del Departamento de Comercio que cita muestran que la cifra más reciente es diez mil dólares más alta, al menos $89,593.

-Afirmó que la tasa de desempleo de Boulder es del 3,1 por ciento. En realidad, según los datos de la Oficina de Estadísticas Laborales (https://www.bls.gov/eag/eag.co_boulder_msa.htm#eag_co_boulder_msa1.f.2) que cita, la cifra real es del 2,5 por ciento.

-Afirmó que el total de trabajadores de Boulder año tras año había aumentado un 5,3 por ciento. La cifra real, según los datos de la Oficina de Estadísticas Laborales que cita, es del 0,6 por ciento.

-Afirmó que el puntaje de "bienestar" de Boulder, evaluado por una compañía llamada Sharecare, es 67,6. Según los [datos reales] de Sharecare (https://wellbeingindex.sharecare.com/interactive-map/?defaultState=CO), la puntuación que asignó es 74.

En total, una verificación superficial de los hechos muestra que una abrumadora proporción de las afirmaciones que la IA de Bankrate hizo sobre Colorado eran falsas.

En respuesta a preguntas sobre los errores, Bankrate eliminó el artículo (aunque está archivado aquí) y emitió una declaración en la que un portavoz defendió la IA y culpó de los errores a personas fuera de servicio. -Datos de fecha.

"Si bien parte del texto de este artículo se creó utilizando una herramienta de asistencia de IA, los errores observados se produjeron en el punto de recopilación y recuperación de datos, no en las herramientas generativas de asistencia de IA", dijo. "Esos datos fueron extraídos de una base de datos interna que no pertenece a la IA el año pasado".

Recuerde, los mismos datos a los que ahora culpan son los que describieron en el descargo de responsabilidad del artículo como una "base de datos estándar de la industria".

"Nuestro editor confirmó los puntos de datos con el material fuente que se proporcionó", continuó. "El editor no tiene la culpa del error de publicación. El problema se debió a un conjunto de datos desactualizado que se extrajo para este artículo".

Vale la pena señalar que el cronograma del portavoz (que los datos del artículo fueron "extraídos" el año pasado) no tiene mucho sentido. Según una copia de seguridad del artículo "Los mejores lugares para vivir en Colorado" [en Internet Archive] (https://web.archive.org/web/20230519194031/https://www.bankrate.com/real-estate/ best-places-to-live/colorado/), tan recientemente como el mes pasado, el artículo todavía llevaba una firma humana y no contenía ni uno solo de los errores que identificamos. De hecho, ni siquiera incluyó a Boulder como uno de sus lugares recomendados para vivir, lo que sugiere que su inclusión se basó en datos inexactos.

La respuesta del portavoz a una pregunta de seguimiento sobre esa discrepancia hizo poco para aclarar la situación.

"A menudo actualizamos los artículos existentes para asegurarnos de que la información sea relevante para nuestra audiencia", escribió. "En este ejemplo en particular, mientras actualizábamos el artículo, queríamos adoptar un enfoque más basado en datos para nuestra lista, pero desafortunadamente utilizamos un conjunto de datos desactualizado".

Cuando se le preguntó por qué el sitio publicaría artículos en junio de 2023 basándose en datos del año anterior, el portavoz no tuvo respuesta.

De todos modos, el portavoz prometió que la empresa pronto seguiría publicando contenido similar.

"Hemos eliminado el artículo y lo actualizaremos con los datos más recientes", dijo. "En el futuro, nos aseguraremos de que todos los estudios de datos incluyan el rango de fechas en que se recopilaron los datos".

En general, parece una entrega más en un patrón familiar: los editores presionan a sus salas de redacción para que publiquen artículos generados apresuradamente por IA sin una verificación seria de los datos, en un intento por atraer lectores de Google sin asegurarse de que se les proporcione información precisa. . La empresa, criticada por errores fácilmente evitables, murmura una excusa, espera a que la indignación se calme y luego vuelve a intentarlo.

Cuando se le preguntó si alguien del liderazgo de Red Ventures estaba dispuesto a declarar públicamente para defender el historial de la compañía en la publicación de contenido generado por IA, el portavoz no tuvo respuesta.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd