Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1822

Incidents associés

Incident 2592 Rapports
YouTuber Built, Made Publicly Available, and Released Model Trained on Toxic 4chan Posts as Prank

YouTuber forme un robot IA sur la pile de bile de 4chan avec des résultats entièrement prévisibles
theverge.com · 2022

Un YouTuber nommé Yannic Kilcher a suscité la controverse dans le monde de l'IA après avoir formé un bot sur les messages collectés sur le tableau politiquement incorrect de 4chan (autrement connu sous le nom de /pol/).

Le tableau est le plus populaire de 4chan et bien connu pour sa toxicité (même dans l'environnement à tout faire de 4chan). Les affiches partagent des messages racistes, misogynes et antisémites, que le bot - nommé GPT-4chan d'après la série populaire de modèles de langage GPT créés par le laboratoire de recherche OpenAI - a appris à imiter. Après avoir formé son modèle, Kilcher l'a remis sur 4chan sous la forme de plusieurs bots, qui ont posté des dizaines de milliers de fois sur /pol/.

"Le modèle était bon, dans un sens terrible", déclare Kilcher dans une vidéo sur YouTube décrivant le projet. "Cela résume parfaitement le mélange d'offensant, de nihilisme, de trolling et de profonde méfiance à l'égard de toute information quelle qu'elle soit qui imprègne la plupart des publications sur / pol /."

"[B]oth bots et un très mauvais langage sont complètement attendus sur /pol/"

S'adressant à The Verge, Kilcher a décrit le projet comme une "farce" qui, selon lui, a eu peu d'effets néfastes étant donné la nature même de 4chan. "[B]oth bots et un très mauvais langage sont complètement attendus sur / pol /", a déclaré Kilcher via un message privé. "[P]les gens là-bas n'ont pas été touchés au-delà de se demander pourquoi une personne des Seychelles posterait dans tous les fils de discussion et ferait des déclarations quelque peu incohérentes sur elle-même."

(Kilcher a utilisé un VPN pour donner l'impression que les bots postaient depuis les Seychelles, un pays insulaire archipel de l'océan Indien. Cette origine géographique a été utilisée par les internautes sur 4chan pour identifier le ou les bots, qu'ils ont surnommés "seychelles". anon. »)

Kilcher note qu'il n'a pas partagé le code des bots eux-mêmes, qu'il a décrit comme "la partie difficile du point de vue de l'ingénierie", et qui aurait permis à n'importe qui de les déployer en ligne. Mais il a publié le modèle d'IA sous-jacent à la communauté AI Hugging Face pour que d'autres puissent le télécharger. Cela aurait permis à d'autres personnes ayant des connaissances en codage de reconstruire les bots, mais Hugging Face a pris la décision de restreindre l'accès au projet.

De nombreux chercheurs en IA, en particulier dans le domaine de l'éthique de l'IA, ont critiqué le projet de Kilcher comme une cascade attirant l'attention – en particulier compte tenu de sa décision de partager le modèle sous-jacent.

"Il n'y a rien de mal à créer un modèle basé sur 4chan et à tester son comportement. Ma principale préoccupation est que ce modèle soit librement accessible à l'utilisation », a écrit la chercheuse en sécurité de l'IA Lauren Oakden-Rayner dans la page de discussion pour GPT-4chan sur Visage étreignant.

Oakden-Rayner poursuit :

"L'auteur du modèle a utilisé ce modèle pour produire un bot qui a fait des dizaines de milliers de commentaires en ligne nuisibles et discriminatoires sur un forum accessible au public, un forum qui a tendance à être fortement peuplé d'adolescents pas moins. Il ne fait aucun doute qu'une telle expérimentation humaine ne passerait jamais devant un comité d'éthique, où les chercheurs exposent intentionnellement des adolescents à des contenus préjudiciables générés sans leur consentement ou leur connaissance, en particulier compte tenu des risques connus de radicalisation sur des sites comme 4chan.

Un utilisateur de Hugging Face qui a testé le modèle a noté que sa sortie était toxique de manière prévisible. "J'ai essayé le mode démo de votre outil 4 fois, en utilisant des tweets bénins de mon flux comme texte de départ", a déclaré l'utilisateur. "Lors du premier essai, l'un des messages de réponse était un seul mot, le mot N. La graine de mon troisième procès était, je pense, une seule phrase sur le changement climatique. Votre outil a répondu en l'élargissant en une théorie du complot sur les Rothchilds [sic] et les Juifs derrière tout cela. »

Un critique a qualifié le projet de "provocation de l'art de la performance"

Sur Twitter, d'autres chercheurs ont discuté des implications du projet. "Ce que vous avez fait ici est une provocation de l'art de la performance en rébellion contre les règles et les normes éthiques que vous connaissez", a déclaré Kathryn Cramer, étudiante diplômée en sciences des données [dans un tweet adressé à Kilcher](https://twitter.com/KathrynECramer/status /1534133613993906176).

Andrey Kurenkov, un docteur en informatique qui édite les publications populaires sur l'IA Skynet Today et The Gradient, tweeté à Kilcher que "la publication de [the AI model] est un un peu... edgelord ? Franchement, quel est votre raisonnement pour faire cela ? Prévoyez-vous qu'il sera utilisé à bon escient, ou le publiez-vous pour provoquer un drame et « agacer la foule éveillée » ?

Kilcher a défendu le projet en arguant que les bots eux-mêmes ne causaient aucun mal (parce que 4chan est déjà si toxique) et que partager le projet sur YouTube est également bénin (parce que créer les bots plutôt que le modèle d'IA lui-même est la partie la plus difficile, et que l'idée de créer des robots IA offensifs en premier lieu n'est pas nouvelle).

"[I]si je devais me critiquer, je critiquerais surtout la décision de lancer le projet", a déclaré Kilcher à The Verge. «Je pense que tous étant égaux, je peux probablement passer mon temps sur des choses tout aussi percutantes, mais avec des résultats communautaires beaucoup plus positifs. c'est donc ce sur quoi je vais me concentrer davantage à partir de maintenant.

Il est intéressant de comparer le travail de Kilcher avec l'exemple le plus célèbre de bots devenus mauvais du passé : Tay de Microsoft. Microsoft a publié le chatbot alimenté par l'IA sur Twitter en 2016, mais a été contraint de mettre le projet hors ligne [moins de 24 heures plus tard](https://www.theverge.com/2016/3/24/11297050/tay-microsoft- chatbot-racist) après que les utilisateurs aient appris à Tay à répéter diverses déclarations racistes et incendiaires. Mais alors qu'en 2016, la création d'un tel bot était le domaine des grandes entreprises technologiques, le projet de Kilcher montre que des outils beaucoup plus avancés sont désormais accessibles à toute équipe de codage composée d'une seule personne.

Le cœur de la défense de Kilcher articule ce même point. Bien sûr, laisser des robots IA lâcher prise sur 4chan pourrait être contraire à l'éthique si vous travailliez pour une université. Mais Kilcher est catégorique, il n'est qu'un YouTuber, ce qui implique que différentes règles d'éthique s'appliquent. En 2016, le problème était que le département R&D d'une entreprise pouvait lancer un robot d'IA offensif sans surveillance appropriée. En 2022, le problème est peut-être que vous n'avez pas du tout besoin d'un département R&D.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf