Incidents associés
Lorsqu'elle a entendu parler pour la première fois des compétences linguistiques humaines du bot d'intelligence artificielle ChatGPT, Jennifer Stevens s'est demandé ce que cela donnerait signifie pour le magazine de la retraite qu'elle édite.
Des mois plus tard, elle a une meilleure idée. Cela signifie qu'elle passe beaucoup de temps à filtrer les emplacements d'articles inutiles.
Des gens comme Stevens, le rédacteur en chef d'International Living, font partie de ceux qui voient de plus en plus de [contenu généré par l'IA](https://www.wsj.com/articles/ai-created-images-are-so-good- even-ai-has-trouble-spotting-some-8536e52c) qui est tellement en deçà de leurs normes qu'ils le considèrent comme un nouveau type de spam.
La technologie alimente un boom des investissements . Il peut répondre aux questions, produire des images et même générer des essais basé sur des invites simples . Certaines de ces techniques promettent d'améliorer l'analyse des données et [d'éliminer les tâches d'écriture banales](https://www.wsj.com/articles/googles-bard-ai-chatbot-adds-more-languages-to-take-on-chatgpt -a2acfc5b), tout comme la calculatrice a changé les mathématiques. Mais ils montrent également le potentiel d'augmentation du spam généré par l'IA et de sa propagation potentielle sur Internet.
Lors du Sommet du Conseil des PDG du Wall Street Journal à Londres, les dirigeants ont discuté de la valeur de l'intelligence artificielle ainsi que des inconvénients possibles de l'utilisation généralisée de la technologie.
Début mai, la société de notation des sites d'actualités NewsGuard a trouvé 49 faux sites d'actualités qui utilisaient l'IA pour générer du contenu. Fin juin, le décompte avait atteint 277, selon Gordon Crovitz, co-fondateur de l'entreprise.
"Cela croît de façon exponentielle", a déclaré Crovitz. Les sites semblent avoir été créés pour gagner de l'argent via le réseau de publicité en ligne de Google, a déclaré Crovitz, ancien chroniqueur et éditeur au Wall Street Journal.
Les chercheurs soulignent également le potentiel des technologies d'IA utilisées pour créer de la désinformation politique et des messages ciblés utilisés pour le piratage. L'entreprise de cybersécurité Zscaler affirme qu'il est trop tôt pour dire si l'IA est largement utilisée par les criminels, mais l'entreprise s'attend à voir il est utilisé pour créer de fausses pages Web de phishing de haute qualité, conçues pour inciter les victimes à télécharger des logiciels malveillants ou à divulguer leurs noms d'utilisateur et mots de passe en ligne.
Sur YouTube, la ruée vers l'or ChatGPT bat son plein. Des dizaines de vidéos offrant des conseils sur la façon de gagner de l'argent avec la technologie d'OpenAI ont été visionnées des centaines de milliers de fois. Beaucoup d'entre eux suggèrent des stratagèmes douteux impliquant du contenu indésirable. Certains disent aux téléspectateurs qu'ils peuvent gagner des milliers de dollars par semaine, les exhortant à écrire des livres électroniques ou à vendre de la publicité sur des blogs remplis de contenu généré par l'IA qui pourraient ensuite générer des revenus publicitaires en apparaissant sur les recherches Google.
Google a déclaré dans un communiqué qu'il s'efforçait de protéger ses résultats de recherche contre le spam et la manipulation et que l'utilisation de contenu généré par l'IA pour manipuler le classement des résultats de recherche constituait une violation de l'[Alphabet](https://www.wsj.com/market -data/quotes/GOOG) politiques anti-spam de l'entreprise.
Lorsque ce journaliste a demandé à ChatGPT de "nommer quelques magazines qui accepteraient le contenu écrit par ChatGPT", l'IA a suggéré 10 magazines, dont cinq qui utilisent un système de soumission de contenu appelé Moksha pour gérer les soumissions d'articles.
"Les éditeurs qui utilisent Moksha ont définitivement signalé une augmentation des soumissions générées par l'IA, nous avons donc développé des outils pour qu'ils puissent facilement répondre et bloquer les auteurs qui ne respectent pas les directives des éditeurs concernant l'IA", a déclaré Matthew Kressel, le créateur de Moksha. Il a noté qu'un magazine recommandé par ChatGPT, Shimmer, a fermé ses portes en 2018.
ChatGPT est bon pour prédire les mots suivants dans les phrases, mais il produit parfois des réponses incorrectes, a déclaré une porte-parole d'OpenAI. "Beaucoup de gens pensent qu'il s'agit d'un moteur de recherche, mais ce n'est pas le cas", a-t-elle déclaré.
Un autre magazine sur la liste de ChatGPT, le magazine de science-fiction Clarkesworld, a temporairement dû cesser d'accepter les soumissions en ligne plus tôt cette année car il était submergé par des centaines d'histoires générées par l'IA, a déclaré l'éditeur de Clarkesworld, Neil Clarke.
Clarke a déclaré que les soumissions étaient motivées par des vidéos en ligne qui recommandaient d'utiliser ChatGPT pour créer des soumissions Clarkesworld.
Clarke, comme d'autres éditeurs interrogés par le Journal, a déclaré que son magazine rejetait toutes les soumissions écrites par l'IA et qu'elles étaient faciles à identifier.
Ils ont "une orthographe et une grammaire parfaites, mais une histoire complètement incohérente", a-t-il déclaré. Souvent, ils commencent par un grand problème – le monde va se terminer – puis 1 000 mots plus tard, le problème est en quelque sorte résolu, sans explication, a-t-il déclaré.
"Ils sont tous écrits d'une manière plutôt fade et générique", a déclaré Stevens, d'International Living. "Ils sont tous grammaticalement corrects. Ils se sentent juste très stéréotypés et ils nous sont vraiment inutiles."
Si Internet se remplissait de plus en plus de contenu généré par l'IA, cela pourrait devenir un problème pour les entreprises d'IA elles-mêmes. En effet, leurs grands modèles de langage, le logiciel qui constitue la base des chatbots tels que ChatGPT, s'entraînent sur des ensembles de données publics. Alors que ces ensembles de données deviennent de plus en plus remplis de contenu généré par l'IA, les chercheurs craignent que les modèles de langage ne deviennent moins utiles, un phénomène connu sous le nom de « effondrement du modèle ».
Tout comme la numérisation et l'impression répétées de la même photo finiront par réduire ses détails, l'effondrement du modèle se produit lorsque les grands modèles d'apprentissage deviennent moins utiles car ils digèrent les données qu'ils ont créées, a déclaré Ilia Shumailov, chercheur au groupe d'apprentissage automatique appliqué et théorique de l'Université d'Oxford qui a récemment co-écrit un article sur ce phénomène.
Et ce n'est pas seulement le contenu du spam qui contribuera à l'effondrement du modèle. C'est aussi l'utilisation croissante de l'IA pour générer du contenu en général, a déclaré Shumailov.
Le mois dernier, des chercheurs de l'École Polytechnique Fédérale de Lausanne ont embauché des rédacteurs indépendants en ligne pour résumer des résumés publiés dans le New England Journal of Medicine et ont trouvé que plus d'un tiers d'entre eux utilisé du contenu généré par l'IA.
Shumailov pense que l'effondrement du modèle est inévitable, mais qu'il existe un certain nombre de solutions techniques potentielles à ce problème. Par exemple, les entreprises qui ont accès à du contenu généré par l'homme pourront toujours créer de grands modèles de langage de haute qualité.
"Ce n'est pas nécessairement une mauvaise chose", a-t-il déclaré. "Peut-être qu'on se débarrassera des captchas, et qu'il deviendra normal d'être un ordinateur sur Internet", a-t-il dit, évoquant les images-casse-tête que les sites internet imposent pour distinguer les ordinateurs des humains.