Incidentes Asociados

Bueno, aquí va una cosa rara.
En Soundslice, nuestro escáner de partituras digitaliza música a partir de fotografías, para que puedas escucharla, editarla y practicar. Mejoramos el sistema continuamente y reviso los registros de errores para ver qué imágenes tienen malos resultados.
En los últimos meses, empecé a notar un tipo de carga extraño en nuestros registros de errores. En lugar de imágenes como esta...

...empezábamos a ver imágenes como esta:

Eh, ¡eso es solo una captura de pantalla de una sesión de ChatGPT...! ¿Qué demonios? Obviamente, eso no es notación musical. Es tablatura ASCII, una forma bastante básica de escribir música para guitarra.
Nuestro sistema de escaneo no estaba diseñado para soportar este estilo de notación. ¿Por qué, entonces, nos bombardeaban con tantas capturas de pantalla de pestañas ASCII de ChatGPT? Estuve desconcertado durante semanas, hasta que probé ChatGPT y me encontré con esto:

Resulta que ChatGPT indica a los usuarios que accedan a Soundslice, creen una cuenta e importen la pestaña ASCII para poder escuchar el audio. ¡Eso lo explica todo!
El problema es que, en realidad, no teníamos esa función. Nunca hemos soportado la pestaña ASCII; ChatGPT mentía descaradamente a la gente. Y, en el proceso, nos hacía quedar mal, creando falsas expectativas sobre nuestro servicio.
Esto planteó una pregunta interesante sobre el producto: ¿Qué deberíamos hacer? Tenemos un flujo constante de nuevos usuarios a quienes se les ha informado de información incorrecta sobre nuestra oferta. ¿Acaso incluimos avisos legales por todo nuestro producto diciendo "Ignoren lo que ChatGPT dice sobre la compatibilidad con pestañas ASCII"?
Al final, decidimos: qué demonios, mejor satisfacíamos la demanda del mercado. Así que creamos un importador de pestañas ASCII a medida (que estaba casi al final de mi lista de "Software que esperaba escribir en 2025"). Y cambiamos la interfaz de usuario de nuestro sistema de escaneo para informar a los usuarios sobre esa función.
Que yo sepa, este es el primer caso de una empresa que desarrolla una función porque ChatGPT informa incorrectamente de su existencia. (¿Genial?) Comparto la historia porque me parece bastante interesante.
Tengo opiniones contradictorias al respecto. Me alegra añadir una herramienta que ayuda a la gente. Pero siento que nos obligaron a actuar de una forma extraña. ¿Deberíamos realmente desarrollar funciones en respuesta a la desinformación?