Incidentes Asociados

Aparte de encadenar oraciones fluidas en inglés similares a las humanas, uno de los [mayores conjuntos de habilidades] de ChatGPT (https://gizmodo.com/best-places-to-hide-from-nuclear-bomb-1849995552) parece estar obteniendo cosas equivocado. En la búsqueda de generar párrafos pasables, el programa de IA fabrica información y [bungles hechos](https ://www.siliconrepublic.com/machines/chatgpt-openai-stack-overflow-ban#:~:text=ChatGPT%20banned%20on%20Q%26A%20site%20over%20'sustancialmente%20dañino'%20respuestas,- by%20Leigh%20Mc&text=El%20AI%20chatbot%20ha%20tenido,más%20preocupaciones%20de%20contenido%20inexacto.) como si no fuera asunto de nadie. Desafortunadamente, el centro de tecnología CNET decidió hacer de los errores de AI su negocio.
El sitio de medios tecnológicos se ha visto obligado a realizar varias correcciones importantes a una publicación en CNET, creada a través de IA, como [se informó por primera vez] (https://futurism.com/cnet-ai-errors) por Futurism. En un solo [explicador escrito por IA] (https://www.cnet.com/personal-finance/banking/what-is-compound-interest/) sobre el interés compuesto, hubo al menos cinco inexactitudes significativas, que ahora sido enmendado. Los errores fueron los siguientes, según la fuerte corrección de CNET:
- El artículo implicaba que una cuenta de ahorros que inicialmente contenía $10,000 con una tasa de interés del 3%, con capitalización anual, acumularía $10,300 en intereses después de un año. El interés real devengado ascendería a $300.
- Un error similar al anterior apareció en un segundo ejemplo, basado en el primero.
- La publicación indicó incorrectamente que el interés de las cuentas de CD de un año solo se capitaliza anualmente. En realidad: Cuentas de CD compuestas a frecuencias variables.
- El artículo informó incorrectamente cuánto tendría que pagar una persona en un préstamo de automóvil con una tasa de interés del 4% durante cinco años.
- La publicación original combinó incorrectamente APR y APY, y ofreció malos consejos en consecuencia.
Durante más de dos meses, CNET ha estado publicando publicaciones generadas por un programa de inteligencia artificial. El sitio ha publicado 78 de estos artículos en total, y hasta 12 en un solo día, originalmente bajo el título "Personal de dinero de CNET" y ahora solo "Dinero de CNET". Inicialmente, el medio parecía ansioso por que su autoría de IA pasara desapercibida, revelando la falta de un escritor humano solo en una oscura descripción en la página de "autor" del robot. Luego, Futurism y otros medios de comunicación se dieron cuenta. Siguió la crítica. La editora en jefe de CNET, Connie Guglielmo, escribió una declaración al respecto.
Y al igual que el reconocimiento público del uso de la IA por parte del medio solo siguió a las críticas generalizadas, CNET no identificó ni tuvo como objetivo corregir todas estas imprecisiones notadas el martes, por sí solo. La corrección del medio de comunicación solo se produjo después de que Futurism alertara directamente a CNET sobre algunos de los errores, informó Futurism.
CNET ha afirmado que todos sus artículos generados por IA son "revisados, de hecho -revisado y editado” por personal humano real. Y cada publicación tiene el nombre de un editor adjunto en la línea de autor. Pero claramente, esa supuesta supervisión no es suficiente para evitar que la inteligencia artificial [muchos errores generados] (https://gizmodo.com/chatgpt-gizmodo-artificial-intelligence-openai-media-1849876066) se escape.
Por lo general, cuando un editor se acerca a un artículo (particularmente un explicador tan básico como "¿Qué es el interés compuesto?"), es seguro asumir que el escritor ha hecho todo lo posible para brindar información precisa. Pero con la IA, no hay intención, solo el producto. Un editor que evalúa un texto generado por IA no puede asumir nada y, en cambio, debe tener un ojo crítico y exigente para cada frase, mundo y signo de puntuación. Es un tipo de tarea diferente a editar a una persona, y es posible que una persona no esté bien equipada, considerando el grado de atención completa e indefectible que debe requerir y el alto volumen que CNET parece estar buscando con sus historias producidas por IA.
Es fácil de entender (aunque no es excusable) que al revisar montones de publicaciones generadas por IA, un editor podría pasar por alto un error sobre la naturaleza de las tasas de interés entre la serie de declaraciones que suenan autorizadas. Cuando la escritura se subcontrata a la IA, los editores terminan soportando la carga y su fracaso parece inevitable.
Y es casi seguro que las fallas no se limitan a un solo artículo. Casi todos los artículos escritos por IA de CNET ahora vienen con una "Nota del editor" en la parte superior que dice: "Actualmente estamos revisando esta historia para verificar su precisión. Si encontramos errores, actualizaremos y emitiremos correcciones", lo que indica que el medio se ha dado cuenta. la insuficiencia de su proceso de edición inicial.
Gizmodo contactó a CNET para obtener más aclaraciones sobre lo que significa este proceso de revisión secundaria por correo electrónico. (¿El mismo editor volverá a leer cada historia para verificar su precisión? ¿Un editor diferente? ¿Un verificador de datos de IA?) Sin embargo, CNET no respondió directamente a mis preguntas. En cambio, Ivey Oneal, gerente de relaciones públicas del medio, refirió a Gizmodo a la declaración anterior de Guglielmo y escribió: “Estamos revisando activamente todas nuestras piezas asistidas por IA para asegurarnos de que no haya más imprecisiones en el proceso de edición. Continuaremos emitiendo las correcciones necesarias de acuerdo con la política de correcciones de CNET”.
Dada la aparente alta probabilidad de errores generados por IA, uno podría preguntarse por qué CNET se está alejando de las personas hacia los robots. Otros medios periodísticos, como [Associated Press](https://www.ap.org/discover/artificial-intelligence#:~:text=AI%20Strategy&text=AP%20deploys%20a%20variety%20of,and%20user% 2Dgenerated%20content%20rapid.), también usan inteligencia artificial, pero solo en contextos muy limitados, como completar información en plantillas preestablecidas. Y en estos entornos más estrechos, el uso de la IA parece tener la intención de liberar a los periodistas para que hagan otro trabajo, más digno de su tiempo. Pero la aplicación de la tecnología de CNET es claramente diferente tanto en alcance como en intención.
Todos los artículos publicados bajo la firma "CNET Money" son explicaciones muy generales con preguntas en lenguaje sencillo como titulares. Están claramente optimizados para aprovechar los algoritmos de búsqueda de Google y terminar en la parte superior de las páginas de resultados de las personas, ahogando el contenido existente y [capturando clics] (https://www.theverge.com/23553406/radioactive-data -malicioso-ai-detección). CNET, como Gizmodo y muchos otros sitios de medios digitales, obtiene ingresos de los anuncios en sus páginas. Cuantos más clics, más dinero paga un anunciante por su(s) valla(s) digital(es) en miniatura.
Desde una perspectiva financiera, no se puede vencer a la IA: no hay costos generales y no hay límite humano de cuánto se puede producir en un día. Pero desde un punto de vista periodístico, la generación de IA es una crisis inminente, en la que la precisión se vuelve completamente secundaria al SEO y el volumen. Los ingresos basados en clics no incentivan la elaboración de informes exhaustivos o una explicación bien formulada. Y en un mundo donde las publicaciones de IA se convierten en una norma aceptada, la computadora solo sabrá cómo recompensarse a sí misma.
Actualización 17/01/2023, 17:05 ET: Esta publicación ha sido actualizada con un comentario de CNET.