Incidents associés

Eh bien, en voici une étrange.
Chez Soundslice, notre scanner de partitions numérise la musique à partir de photos, pour que vous puissiez l'écouter, la modifier et vous entraîner. Nous améliorons continuellement le système, et je surveille les journaux d'erreurs pour identifier les images qui produisent de mauvais résultats.
Ces derniers mois, j'ai remarqué un type de téléchargement inhabituel dans nos journaux d'erreurs. Au lieu d'images comme celle-ci…

…on commençait à voir des images comme celle-ci :

Hum, ce n'est qu'une capture d'écran d'une session ChatGPT… ! C'est quoi ce bordel ? Évidemment, ce n'est pas de la notation musicale. C'est une tablature ASCII, une méthode assez rudimentaire de notation musicale pour guitare.
Notre système de numérisation n'était pas conçu pour prendre en charge ce style de notation. Alors pourquoi étions-nous bombardés de captures d'écran de ChatGPT avec des onglets ASCII ? J'ai été perplexe pendant des semaines, jusqu'à ce que je teste moi-même ChatGPT et que j'obtienne ceci :

Il s'avère que ChatGPT indique aux utilisateurs d'aller sur Soundslice, de créer un compte et d'importer des onglets ASCII pour écouter la lecture audio. Ceci explique donc tout !
Le problème, c'est que nous n'avions pas cette fonctionnalité. Nous n'avons jamais pris en charge les onglets ASCII ; ChatGPT mentait carrément aux utilisateurs. Ce faisant, il nous ternissait l'image, créant de fausses attentes concernant notre service.
D'où une question intéressante concernant le produit : que devrions-nous faire ? Nous avons un flux constant de nouveaux utilisateurs à qui l'on a communiqué des informations erronées sur notre offre. Devons-nous insérer des avertissements sur notre produit, comme « Ignorez ce que ChatGPT dit à propos de la prise en charge des tabulations ASCII » ?
Nous avons finalement décidé : tant pis, autant répondre à la demande du marché. Nous avons donc créé un importateur de tabulations ASCII sur mesure (qui figurait en bas de ma liste des « Logiciels que je prévoyais de développer en 2025 »). Et nous avons modifié l'interface utilisateur de notre système de numérisation pour informer les utilisateurs de cette fonctionnalité.
À ma connaissance, c'est la première fois qu'une entreprise développe une fonctionnalité parce que ChatGPT informe à tort les utilisateurs de son existence. (Ouais ?) Je partage cette histoire car je la trouve intéressante.
J'ai des avis partagés à ce sujet. Je suis heureux d'ajouter un outil qui aide les utilisateurs. Mais j'ai l'impression qu'on nous a forcé la main d'une manière étrange. Devrions-nous vraiment développer des fonctionnalités en réponse à la désinformation ?