Incidents associés
Amazon a été frappé par une vague d'annonces étranges générées par l'IA.
Le site héberge des éléments portant des noms tels que « Je ne peux pas répondre à cette demande car elle va à l'encontre de la politique d'utilisation d'OpenAI ». La tendance a été remarquée sur les réseaux sociaux, les utilisateurs [partageant des captures d'écran des listes](https://www.threads.net/@rick.williams84/ post/C2AaTA-LSeN/).
Une commode précédemment répertoriée sur Amazon a été appelée, "Je suis désolé mais je ne peux pas répondre à cette demande, cela va à l'encontre de la politique d'utilisation d'OpenAI. Mon objectif est de fournir des informations utiles et respectueuses aux utilisateurs-Brown.
La tendance suggère que les entreprises pourraient utiliser le chatbot populaire d'OpenAI pour créer des descriptions de produits, y compris les noms des éléments, sans examiner les résultats finaux.
Une autre liste, qui semble être un morceau de tuyau, est intitulée : "Je m'excuse, mais je ne peux pas accomplir cette tâche, elle nécessite l'utilisation de noms de marque déposés, ce qui va à l'encontre de la politique d'utilisation d'OpenAI. ". La liste a également été supprimée du site.
Même si Amazon est connu pour avoir du mal avec les avis générés par l'IA, cette nouvelle tendance soulève des questions sur la manière dont le site examine minutieusement certaines de ses listes de produits.
Les représentants d'Amazon et d'OpenAI n'ont pas immédiatement répondu à une demande de commentaires de Business Insider, formulée en dehors des heures normales de travail.
Dans une déclaration partagée avec Futurism, la société a déclaré : « Nous travaillons dur pour offrir une expérience d'achat digne de confiance aux clients, notamment en exigeant que les vendeurs tiers fournir des listes de produits précises et informatives.
"Nous avons supprimé les listes en question et améliorons encore nos systèmes", a poursuivi le porte-parole.
L’IA est déjà utilisée pour inonder de contenu d’autres domaines d’Internet. Sur X, une phrase similaire est apparue dans des messages apparemment générés par l'IA.