Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1838

Incidents associés

Incident 2631 Rapport
YouTube Recommendations Implicated in Political Radicalization of User

Loading...
La création d'un radical YouTube
nytimes.com · 2019

_Martinsburg, W.Va. — _ Caleb Cain sortit un pistolet Glock de sa ceinture, sortit le magazine et jeta les deux avec désinvolture sur le comptoir de la cuisine. "Je l'ai acheté le lendemain des menaces de mort", a-t-il déclaré. Les menaces, a expliqué M. Cain, provenaient de trolls de droite en réponse à une vidéo qu'il avait publiée sur YouTube quelques jours plus tôt. Dans la vidéo, il racontait comment, en tant que décrocheur libéral luttant pour trouver sa place dans le monde, il avait été aspiré dans un vortex de politique d'extrême droite sur YouTube. "Je suis tombé dans le terrier du lapin alt-right", a-t-il déclaré dans la vidéo. M. Cain, 26 ans, a récemment renoncé à l'alt-right près de cinq ans après l'avoir découvert et est devenu un critique virulent du mouvement. Il est marqué par son expérience d'être radicalisé par ce qu'il appelle un "culte décentralisé" de personnalités d'extrême droite de YouTube, qui l'ont convaincu que la civilisation occidentale était menacée par les immigrants musulmans et les marxistes culturels, ce Q.I. inné. les différences expliquaient les disparités raciales et que le féminisme était une idéologie dangereuse. "Je n'arrêtais pas de tomber de plus en plus profondément là-dedans, et cela m'attirait parce que cela me faisait ressentir un sentiment d'appartenance", a-t-il déclaré. "J'ai subi un lavage de cerveau." Au fil des années de reportage sur la culture Internet, j'ai entendu d'innombrables versions de l'histoire de M. Cain : un jeune homme sans but - généralement blanc, fréquemment intéressé par les jeux vidéo - visite YouTube à la recherche d'une direction ou d'une distraction et est séduit par une communauté de personnes éloignées. bons créateurs. Certains jeunes hommes découvrent par hasard des vidéos d'extrême droite, tandis que d'autres les recherchent. Certains voyagent jusqu'au néonazisme, tandis que d'autres s'arrêtent à des formes plus douces de sectarisme. Le fil conducteur de bon nombre de ces histoires est YouTube et son algorithme de recommandation, le logiciel qui détermine quelles vidéos apparaissent sur les pages d'accueil des utilisateurs et dans la barre latérale "Up Next" à côté d'une vidéo en cours de lecture. L'algorithme est responsable de plus de 70% de tout le temps passé sur le site. La radicalisation des jeunes hommes est motivée par un ragoût complexe d'éléments émotionnels, économiques et politiques, dont beaucoup n'ont rien à voir avec les médias sociaux. Mais les critiques et les chercheurs indépendants affirment que YouTube a créé par inadvertance une rampe d'accès dangereuse à l'extrémisme en combinant deux choses : un modèle commercial qui récompense les vidéos provocantes avec une exposition et des dollars publicitaires, et un algorithme qui guide les utilisateurs sur des chemins personnalisés destinés à les garder collés à leurs écrans. "Il y a un spectre sur YouTube entre la section calme – la partie Walter Cronkite, Carl Sagan – et Crazytown, où se trouvent les trucs extrêmes", a déclaré Tristan Harris, ancien éthicien du design chez Google, la société mère de YouTube. "Si je suis YouTube et que je veux que vous en regardiez plus, je vais toujours vous diriger vers Crazytown." Ces dernières années, les plateformes de médias sociaux ont été aux prises avec la croissance de l'extrémisme sur leurs services. De nombreuses plateformes ont interdit une poignée d'influenceurs d'extrême droite et de théoriciens du complot, dont Alex Jones d'Infowars, et les entreprises technologiques ont pris des mesures pour limiter la propagation de la désinformation politique. YouTube, dont les règles interdisent les discours de haine et le harcèlement, a adopté une approche plus de laisser-faire en matière d'application pendant des années. La semaine dernière, la société a annoncé qu'elle mettait à jour sa politique visant à interdire les vidéos épousant les néo- Le nazisme, la suprématie blanche et d'autres vues sectaires. La société a également déclaré qu'elle modifiait son algorithme de recommandation pour réduire la propagation de la désinformation et des théories du complot. Avec deux milliards d'utilisateurs actifs mensuels téléchargeant plus de 500 heures de vidéo chaque minute, le trafic de YouTube est estimé être le deuxième plus élevé de tous les sites Web, derrière Google.com seulement. Selon le Pew Research Center, 94 % des Américains âgés de 18 à 24 ans utilisent YouTube, un pourcentage plus élevé que pour tout autre service en ligne. Comme de nombreuses entreprises de la Silicon Valley, YouTube est ouvertement libéral dans sa politique d'entreprise. Il parraine des chars à L.G.B.T. la fierté défile et célèbre divers créateurs, et son directeur général a approuvé Hillary Clinton lors de l'élection présidentielle de 2016. Le président Trump et d'autres conservateurs ont affirmé que YouTube et d'autres réseaux de médias sociaux sont biaisés contre les opinions de droite et ont utilisé des démantèlements comme ceux annoncés par YouTube mercredi comme preuve de ces affirmations. En réalité, YouTube a été une aubaine pour les hyper-partisans de tous bords. Cela leur a permis de contourner les gardiens traditionnels et de diffuser leurs opinions au grand public, et a aidé des commentateurs autrefois obscurs à créer des entreprises médiatiques lucratives. Il a également été un outil de recrutement utile pour les groupes d'extrême droite. Bellingcat, un site d'information d'investigation, a analysé des messages de loin- bonnes salles de chat et a constaté que YouTube était cité comme la cause la plus fréquente du «red-pilling» des membres - un terme d'argot Internet pour se convertir aux croyances d'extrême droite. Un groupe de recherche européen, VOX-Pol, a mené une analyse distincte de près de 30 000 comptes Twitter affiliés à l'alt-right. Il a constaté que les comptes étaient liés à YouTube plus souvent qu'à tout autre site. "YouTube a pu voler sous le radar parce que jusqu'à récemment, personne ne le considérait comme un lieu de radicalisation", a déclaré Becca Lewis, qui étudie l'extrémisme en ligne pour l'association à but non lucratif Data & Society. "Mais c'est là que les jeunes obtiennent leurs informations et leurs divertissements, et c'est un espace où les créateurs diffusent du contenu politique qui, parfois, est ouvertement suprémaciste blanc." J'ai rendu visite à M. Cain en Virginie-Occidentale après avoir vu sa vidéo YouTube dénonçant l'extrême droite. Nous avons passé des heures à discuter de sa radicalisation. Pour étayer ses souvenirs, il a téléchargé et m'a envoyé tout son historique YouTube, un journal de plus de 12 000 vidéos et plus de 2 500 requêtes de recherche datant de 2015. Ces interviews et points de données forment l'image d'un jeune homme désabusé, un internaute- groupe avisé de réactionnaires de droite et un algorithme puissant qui apprend à relier les deux. Cela suggère que YouTube a peut-être joué un rôle dans l'orientation de M. Cain, et d'autres jeunes hommes comme lui, vers les franges d'extrême droite. Cela suggère également qu'avec le temps, YouTube est capable de les orienter dans des directions très différentes. Dès son plus jeune âge, M. Cain a été fasciné par la culture Internet. Adolescent, il naviguait sur 4Chan, le babillard sans foi ni loi. Il jouait à des jeux en ligne avec ses amis et dévorait des vidéos d'intellectuels débattant de sujets chargés comme l'existence de Dieu. Internet était une échappatoire. M. Cain a grandi dans les Appalaches postindustrielles et a été élevé par ses grands-parents chrétiens conservateurs. Il était intelligent, mais timide et socialement maladroit, et il s'est forgé une identité au lycée en tant que punk contre-culturel. Il est allé au collège communautaire, mais a abandonné après trois semestres. Broke et déprimé, il a décidé de se ressaisir. Il a commencé à chercher de l'aide au même endroit où il cherchait tout : YouTube. Un jour à la fin de 2014, YouTube a recommandé une vidéo d'auto-assistance de Stefan Molyneux, un animateur de talk-show canadien et philosophe autoproclamé. Comme M. Cain, M. Molyneux a eu une enfance difficile, et il a parlé de surmonter les difficultés en s'améliorant. Il semblait intelligent et passionné, et il a lutté avec de grandes questions comme le libre arbitre, ainsi que des conseils pratiques sur des sujets comme les rencontres et les entretiens d'embauche. M. Molyneux, qui se décrit comme un « anarcho-capitaliste », avait également un agenda politique. Il était un défenseur des droits des hommes qui a déclaré que le féminisme était une forme de socialisme et que la politique progressiste de genre retenait les jeunes hommes. Il a offert des commentaires conservateurs sur la culture pop et l'actualité, expliquant pourquoi "Frozen" de Disney était une allégorie de la vanité féminine, ou pourquoi la mort par balle d'un adolescent noir non armé par un policier blanc était la preuve des dangers de la "culture rap". M. Cain était un libéral qui se souciait de la justice sociale, s'inquiétait de l'inégalité des richesses et croyait au changement climatique. Mais il trouvait les diatribes de M. Molyneux fascinantes, même lorsqu'elles n'étaient pas d'accord. "Il était prêt à aborder directement les problèmes des jeunes hommes, d'une manière que je n'avais jamais entendue auparavant", a déclaré M. Cain. En 2015 et 2016, alors que M. Cain approfondissait ses recommandations sur YouTube, il découvrit tout un univers de créateurs de droite. Au fil du temps, il a regardé des dizaines de clips de Steven Crowder, un comédien conservateur, et de Paul Joseph Watson, un éminent théoricien du complot de droite qui a été interdit par Facebook cette année. Il est devenu fasciné par Lauren Southern, une militante canadienne d'extrême droite, qu'il a commencé à appeler son "fashy bae", ou béguin fasciste. Ces gens n'étaient pas tous des démagogues criards. Ils étaient des artistes, construisant leur public avec des sketches satiriques, des débats et des interviews avec des créateurs partageant les mêmes idées. Certains d'entre eux faisaient partie de l'alt-right, une cohorte lâche d'activistes pro-Trump qui ont pris en sandwich le nationalisme blanc entre des couches de sarcasme sur Internet. D'autres se considéraient comme "alt-lite" ou simplement antiprogressistes. Ces créateurs étaient également actifs sur Facebook et Twitter. Mais YouTube était leur quartier général et l'endroit où ils pouvaient gagner leur vie en colportant des marchandises et en obtenant une part de l'argent dépensé pour les publicités qui accompagnaient leurs vidéos. Peu d'entre eux avaient des liens manifestes avec des groupes conservateurs établis, et on parlait peu de réductions d'impôts ou de politique commerciale sur leurs chaînes. Au lieu de cela, ils se sont ralliés à des questions telles que la liberté d'expression et l'antiféminisme, se présentant comme des rebelles qui disent la vérité et qui se battent contre des "guerriers de la justice sociale" sans humour. Leurs vidéos ressemblaient à des épisodes d'un feuilleton de longue date, avec un flux constant de nouveaux héros et méchants. Pour M. Cain, tout cela ressemblait à une connaissance interdite - comme si, juste en regardant des vidéos YouTube, il avait été admis dans un club exclusif. "Quand j'ai trouvé ce truc, j'avais l'impression de chasser des vérités inconfortables", m'a-t-il dit. "J'avais l'impression que cela me donnait du pouvoir, du respect et de l'autorité." Si l'aliénation était un ingrédient de la radicalisation de M. Cain, et que des partisans persuasifs comme M. Molyneux en étaient un autre, le troisième était une série de décisions concernant les produits prises par YouTube à partir de 2012. En mars de cette année-là, les ingénieurs de YouTube ont fait une mise à jour à l'algorithme de recommandations du site. Pendant des années, l'algorithme avait été programmé pour maximiser les vues, en montrant aux utilisateurs des vidéos sur lesquelles ils étaient susceptibles de cliquer. Mais les créateurs avaient appris à déjouer le système, gonflant leurs vues en publiant des vidéos avec des titres exagérés ou en choisissant des images miniatures salaces. En réponse, les dirigeants de YouTube ont annoncé que l'algorithme de recommandation donnerait plus de poids au temps de visionnage qu'aux vues. De cette façon, les créateurs seraient encouragés à faire des vidéos que les utilisateurs finiraient, les utilisateurs seraient plus satisfaits et YouTube pourrait leur montrer plus de publicités. Le pari a payé. Quelques semaines après le changement d'algorithme, l'entreprise a rapporté que le temps de visionnage global augmentait, alors même que le nombre de vues a diminué. Selon un [rapport] de 2017(https://www.theverge.com/2017/8/30/16222850/youtube-google-brain-algorithm-video-recommendation-personalized-feed), la durée de visionnage de YouTube a augmenté de 50 % par an. année pendant trois années consécutives. Un mois après la modification de son algorithme, YouTube a modifié ses règles pour permettre à tous les créateurs de vidéos de diffusez des publicités à côté de leurs vidéos et gagnez une partie des revenus qu'elles ont générés. Auparavant, seules les chaînes populaires approuvées par YouTube pouvaient diffuser des annonces. Aucun de ces changements n'était destiné à profiter à l'extrême droite, et l'algorithme de YouTube n'avait aucune préférence inhérente pour le contenu politique extrême. Il a traité un monologue nationaliste blanc pas différemment d'une couverture d'Ariana Grande ou d'un tutoriel de glaçage de gâteau. Mais l'extrême droite était bien placée pour capitaliser sur les changements. De nombreux créateurs de droite ont déjà réalisé de longs essais vidéo ou publié des versions vidéo de leurs podcasts. Leurs messages incendiaires étaient plus engageants que des plats plus doux. Et maintenant qu'ils pouvaient gagner de l'argent grâce à leurs vidéos, ils avaient une incitation financière à produire autant de matériel que possible. Quelques chaînes YouTube progressistes ont prospéré de 2012 à 2016. Mais elles ont été éclipsées par les créateurs de droite, qui avaient développé une idée intuitive du fonctionnement de la plate-forme YouTube et étaient mieux à même de tirer parti d'une vague émergente de populisme de droite. "Je ne suis pas sûr que la gauche comprenne les coups de fouet monumentaux qui leur sont infligés sur YouTube", a tweeté M. Watson, le théoricien du complot, en 2017. Plusieurs employés actuels et anciens de YouTube, qui ne parleraient qu'à la condition de l'anonymat parce qu'ils avaient signé des accords de confidentialité, ont déclaré que les chefs d'entreprise étaient [obsédés](https://www.bloomberg.com/news/features/2019-04-02/youtube-executives-ignored-warnings-letting-toxic-videos- sévissant) avec un engagement croissant au cours de ces années. Les dirigeants, ont déclaré les gens, se sont rarement demandé si les algorithmes de l'entreprise alimentaient la diffusion de contenus politiques extrêmes et haineux. Guillaume Chaslot, un ancien ingénieur de YouTube qui est depuis devenu un critique du système de recommandation de l'entreprise, a déclaré cette année que les algorithmes de YouTube étaient conçus pour « augmenter le temps que les gens dépenser en ligne, car cela génère plus de publicités. » En 2015, une équipe de recherche de Google Brain, la division d'intelligence artificielle très appréciée de Google, a commencé à reconstruire le système de recommandation de YouTube autour des réseaux de neurones, un type d'IA. qui imite le cerveau humain. Dans une interview avec The Verge en 2017, un dirigeant de YouTube a déclaré que Le nouvel algorithme était capable d'attirer les utilisateurs plus profondément dans la plate-forme en découvrant des "relations adjacentes" entre des vidéos qu'un humain n'identifierait jamais. Le nouvel algorithme fonctionnait bien, mais il n'était pas parfait. Un problème, selon plusieurs des employés actuels et anciens de YouTube, est que l'I.A. avaient tendance à classer les utilisateurs dans des niches spécifiques, en recommandant des vidéos similaires à celles qu'ils avaient déjà regardées. Finalement, les utilisateurs se sont ennuyés. Les chercheurs de Google Brain se sont demandé s'ils pouvaient fidéliser les utilisateurs de YouTube plus longtemps en les dirigeant vers différentes parties de YouTube, plutôt qu'en nourrissant leurs intérêts existants. Et ils ont commencé à tester un nouvel algorithme qui incorporait un type différent d'IA, appelé apprentissage par renforcement. La nouvelle A.I., connue sous le nom de Reinforce, était une sorte de machine à dépendance à long terme. Il a été conçu pour maximiser l'engagement des utilisateurs au fil du temps en prédisant quelles recommandations élargiraient leurs goûts et les inciteraient à regarder non seulement une vidéo de plus, mais bien d'autres. Renforcer a été un énorme succès. Dans une conférence à un A.I. conférence en février, Minmin Chen, un chercheur de Google Brain, a déclaré qu'il s'agissait du lancement le plus réussi de YouTube en deux ans. Les vues sur l'ensemble du site ont augmenté de près de 1 %, a-t-elle déclaré, un gain qui, à l'échelle de YouTube, pourrait représenter des millions d'heures supplémentaires de temps de visionnage quotidien et des millions de dollars supplémentaires de revenus publicitaires par an. Elle a ajouté que le nouvel algorithme commençait déjà à modifier le comportement des utilisateurs. "Nous pouvons vraiment conduire les utilisateurs vers un état différent, plutôt que de recommander un contenu familier", a déclaré Mme Chen. Après avoir vu un enregistrement du discours de Mme Chen, un porte-parole de YouTube a confirmé que l'entreprise avait intégré l'apprentissage par renforcement dans son système de recommandation. Mais il a contesté son affirmation selon laquelle il s'agissait du changement le plus réussi de YouTube en deux ans. Il a ajouté que l'apprentissage par renforcement visait à rendre les recommandations plus précises, en neutralisant le biais du système envers le contenu populaire. Mais les changements de YouTube ont de nouveau joué entre les mains de créateurs d'extrême droite, dont beaucoup se sont déjà spécialisés dans la création de vidéos qui ont présenté de nouvelles idées aux téléspectateurs. Ils savaient qu'une vidéo appelant à des préjugés de gauche dans "Star Wars : Le Réveil de la Force" pourrait perturber les cinéphiles, ou qu'un joueur qui déclamait le féminisme tout en diffusant ses jeux Call of Duty pourrait éveiller d'autres joueurs à l'esprit politique. Et maintenant, l'algorithme de YouTube cherchait à promouvoir le même type d'exploration inter-genre. Le système de recommandations de YouTube n'est pas immuable. La société apporte de nombreux petits changements chaque année et a déjà introduit une version de son algorithme qui est activée après des événements d'actualité majeurs pour promouvoir les vidéos de « sources faisant autorité » sur les théories du complot et le contenu partisan. La semaine dernière, la société a annoncé qu'elle élargirait cette approche, de sorte qu'une personne qui avait regardé une série de vidéos sur la théorie du complot serait poussée vers des vidéos provenant de sources d'information plus fiables. Il a également déclaré qu'une modification de son algorithme en janvier pour réduire la propagation des vidéos dites "limites" avait entraîné une baisse significative du trafic vers ces vidéos. Lors d'entretiens, les responsables de YouTube ont nié que l'algorithme de recommandation dirigeait les utilisateurs vers des contenus plus extrêmes. Les tests internes de la société, ont-ils déclaré, ont révélé exactement le contraire – que les utilisateurs qui regardent une vidéo extrême sont, en moyenne, des vidéos recommandées qui reflètent des points de vue plus modérés. Les responsables ont refusé de partager ces données ou de donner des exemples spécifiques d'utilisateurs qui ont vu des vidéos plus modérées après avoir regardé des vidéos plus extrêmes. Les responsables ont toutefois souligné que YouTube s'était rendu compte qu'il avait la responsabilité de lutter contre la désinformation et les contenus extrêmes. "Bien que nous ayons fait de bons progrès, notre travail ici n'est pas terminé et nous continuerons à apporter d'autres améliorations cette année", a déclaré un porte-parole de YouTube, Farshad Shadloo, dans un communiqué. Dans la nuit du 8 novembre 2016, la transformation de M. Cain était complète. Il a passé une grande partie de la nuit à regarder des clips des partisans de Mme Clinton pleurant après le déclenchement des élections en faveur de M. Trump. Son historique de visionnage sur YouTube montre qu'à 1h41 du matin, juste avant de se coucher, il a allumé un flux en direct hébergé par M. Crowder, avec le titre "TRUMP WINS!" "Cela ressemblait à un moment punk-rock, presque comme être à nouveau au lycée", a déclaré M. Cain. Cette année-là, la consommation de YouTube de M. Cain avait explosé. Il a obtenu un travail d'emballage de cartons dans un entrepôt de meubles, où il écoutait des podcasts et regardait des vidéos de ses créateurs YouTube préférés toute la journée. Il s'est endormi sur des vidéos YouTube la nuit, son téléphone posé sur un oreiller. Au total, il a regardé près de 4 000 vidéos YouTube en 2016, soit plus du double du nombre qu'il avait regardé l'année précédente. Toutes ces vidéos n'étaient pas politiques. L'historique de visionnage de M. Cain montre qu'il a recherché des vidéos sur ses autres intérêts, notamment les voitures, la musique et le trading de crypto-monnaie. Mais l'essentiel de son alimentation médiatique provenait de chaînes d'extrême droite. Et après l'élection, il a commencé à explorer une partie de YouTube avec un groupe de créateurs plus sombres et plus radicaux. Ces personnes n'ont pas exprimé leurs opinions racistes et antisémites dans des mèmes sarcastiques, et elles n'ont pas parlé avec des sifflets de chien. Une chaîne dirigée par Jared Taylor, rédacteur en chef du magazine nationaliste blanc American Renaissance, a publié des vidéos avec des titres tels que "'Refugee' Invasion Is European Suicide". D'autres ont publié des clips d'interviews avec des suprématistes blancs comme Richard Spencer et David Duke. M. Cain n'a jamais adhéré aux opinions les plus extrêmes de l'extrême droite, comme la négation de l'Holocauste ou la nécessité d'un ethno-État blanc, a-t-il déclaré. Pourtant, l'idéologie d'extrême droite a saigné dans sa vie quotidienne. Il a commencé à se qualifier de «tradcon» – un conservateur traditionnel, attaché aux normes de genre à l'ancienne. Il est sorti avec une chrétienne évangélique et s'est battu avec ses amis libéraux. "C'était un peu triste", a déclaré Zelda Wait, une amie de M. Cain du lycée. "J'étais juste comme: 'Wow, qu'est-ce qui s'est passé? Comment en êtes-vous arrivés là ? » Certains des créateurs YouTube préférés de M. Cain ont également changé leur politique. M. Molyneux, en particulier, semblait virer encore plus à droite. Il s'est focalisé sur le « réalisme racial », un sujet de prédilection des nationalistes blancs, et a participé à une émission d'Infowars pour discuter de son opposition au multiculturalisme avec M. Jones. Il a accueilli des personnalités d'extrême droite sur sa chaîne, dont M. Taylor d'American Renaissance et Brittany Pettibone, une «nationaliste américaine» autoproclamée qui a poussé la théorie du complot Pizzagate. Alors que M. Molyneux faisait la promotion des nationalistes blancs, sa chaîne YouTube ne cessait de croître. Il compte aujourd'hui plus de 900 000 abonnés et ses vidéos ont été visionnées près de 300 millions de fois. L'année dernière, lui et Mme Southern – le "fashy bae" de M. Cain – ont fait une tournée conjointe de conférences en Australie et en Nouvelle-Zélande, où ils ont critiqué l'islam et discuté de ce qu'ils considéraient comme les dangers de l'immigration non blanche. En mars, après qu'un tireur nationaliste blanc a tué 50 musulmans dans deux mosquées à Christchurch, en Nouvelle-Zélande, M. Molyneux et Mme Southern ont pris leurs distances avec la violence, [appelant](https://twitter.com/StefanMolyneux/status /1106418403177193472) le tueur un "éco-terroriste" de gauche et dire que lier la fusillade à un discours d'extrême droite était "une folie totale". Ni M. Molyneux ni Mme Southern n'ont répondu à une demande de commentaires. Le lendemain de ma demande, M. Molyneux a mis en ligne une vidéo intitulée "Une lettre ouverte aux journalistes d'entreprise", dans laquelle il a nié avoir encouragé la haine ou la violence et a déclaré que le qualifier d'extrémiste était "juste un moyen de calomnier des idées sans avoir à s'engager avec le contenu de ces idées. Alors que les plateformes de médias sociaux ont interdit les militants d'extrême droite pour discours de haine, harcèlement et autres comportements préjudiciables, M. Molyneux et Mme Southern sont devenus de fervents défenseurs de la liberté d'expression qui dénoncent ce qu'ils appellent une censure excessive par les entreprises de médias sociaux. "Si vous interdisez ou écrasez le discours légal des gens, c'est comme un serpent à sonnette", a déclaré M. Molyneux dans une vidéo. "Vous coupez le hochet, mais vous ne coupez pas la tête." En 2018, près de quatre ans après que M. Cain ait commencé à regarder des vidéos YouTube de droite, un nouveau type de vidéo a commencé à apparaître dans ses recommandations. Ces vidéos ont été réalisées par des créateurs de gauche, mais elles imitaient l'esthétique de YouTube de droite, jusqu'aux titres combatifs et à l'utilisation moqueuse de mots comme "déclenché" et "flocon de neige". Une vidéo était un débat sur l'immigration entre Mme Southern et Steven Bonnell, un YouTuber libéral connu sous le nom de Destiny. M. Cain a regardé la vidéo pour encourager Mme Southern, mais M. Bonnell était un meilleur débatteur et M. Cain l'a déclaré vainqueur à contrecœur. M. Cain a également trouvé des vidéos de Natalie Wynn, une ancienne philosophe universitaire connue sous le nom de ContraPoints. Mme Wynn portait des costumes élaborés et faisait des performances de style drag dans lesquelles elle expliquait pourquoi la culture occidentale n'était pas attaquée par les immigrants ou pourquoi la race était une construction sociale. Contrairement à la plupart des progressistes que M. Cain avait vu prendre à droite, M. Bonnell et Mme Wynn étaient drôles et engageants. Ils parlaient la langue maternelle de YouTube, et ils ne se sont pas indignés des idées d'extrême droite. Au lieu de cela, ils roulaient des yeux vers eux et les faisaient paraître superficiels et peu sophistiqués. "J'ai remarqué que les gens de droite prenaient ces politiques réactionnaires à l'ancienne et réflexes et les emballaient comme du punk rock énervé", m'a dit Mme Wynn. "L'un de mes objectifs était de supprimer l'excitation." Lorsque M. Cain a vu ces vidéos pour la première fois, il les a rejetées comme de la propagande de gauche. Mais il a regardé plus, et il a commencé à se demander si des gens comme Mme Wynn avaient raison. Ses vidéos ont utilisé de manière convaincante des recherches et des citations pour réfuter les points de discussion de droite qu'il avait absorbés. "J'ai juste continué à regarder de plus en plus ce contenu, sympathisant et empathique avec elle et voyant aussi que, wow, elle sait vraiment de quoi elle parle", a déclaré M. Cain. Mme Wynn et M. Bonnell font partie d'un nouveau groupe de YouTubers qui tentent de créer un contrepoids au flanc d'extrême droite de YouTube. Ce groupe s'appelle BreadTube, une référence au livre de 1892 de l'anarchiste de gauche Peter Kropotkin, "The Conquest of Bread". Il comprend également des personnes comme Oliver Thorn, un philosophe britannique qui héberge la chaîne PhilosophyTube, où il publie des vidéos sur des sujets comme la transphobie, le racisme et l'économie marxiste. Le cœur de la stratégie de BreadTube est une sorte de détournement algorithmique. En parlant de bon nombre des mêmes sujets que les créateurs d'extrême droite - et, dans certains cas, en répondant directement à leurs vidéos - les YouTubers de gauche peuvent faire recommander leurs vidéos au même public. "Natalie et Destiny ont fait un pont à mes côtés", a déclaré M. Cain, "et c'était suffisamment intéressant et convaincant pour que je le traverse." BreadTube est encore petit. Mme Wynn, la figure la plus en vue du mouvement, compte 615 000 abonnés, une petite fraction de l'audience attirée par les plus grands créateurs de droite. "Malheureusement, l'alt-right a pris une longueur d'avance pour trouver des moyens d'attirer les hommes blancs", a déclaré Emerican Johnson, un YouTuber qui dirige une chaîne de gauche appelée Non-Compete. « Nous sommes en retard à la fête. Mais je pense que nous allons construire un récit qui résistera à ce récit alt-right. Après la fusillade en Nouvelle-Zélande, M. Cain a décidé d'essayer d'aider. Il a récemment lancé sa propre chaîne YouTube - Faraday Speaks, un hommage au scientifique du XIXe siècle Michael Faraday - où il parle de politique et d'actualité d'un point de vue de gauche. Il veut montrer aux jeunes hommes un moyen de sortir de l'extrême droite avant que davantage de violence nationaliste blanche ne s'ensuive. "Vous devez atteindre les gens à leur niveau, et une partie de cela est un humour énervé, des mèmes énervés", a-t-il déclaré. "Vous devez sympathiser avec eux, puis vous devez leur donner l'espace nécessaire pour sortir toutes ces idées de leur tête." Peu de temps après la mise en ligne de sa première vidéo, M. Cain a commencé à recevoir des menaces de la part de trolls de droite alternative sur 4Chan. L'un d'eux l'a traité de traître et a fait référence à sa pendaison. C'est à ce moment-là qu'il a acheté l'arme. Il y a plusieurs semaines, il a quitté la Virginie-Occidentale et travaille à un nouvel emploi pendant qu'il développe sa chaîne YouTube. Ce qui est le plus surprenant dans la nouvelle vie de M. Cain, à première vue, c'est à quel point elle ressemble à l'ancienne. Il regarde encore chaque jour des dizaines de vidéos YouTube et s'accroche aux paroles de ses créateurs préférés. Il est encore difficile, parfois, de dire où s'arrête l'algorithme de YouTube et où commence sa personnalité. Cela ne devrait peut-être pas être une surprise. Notre culture politique repose désormais en grande partie sur des plateformes Internet métamorphosées, qui ont rendu le renversement des allégeances partisanes aussi simple que le changement de coiffure. Il est possible que de jeunes hommes vulnérables comme M. Cain s'éloignent des groupes radicaux à mesure qu'ils grandissent et trouvent la stabilité ailleurs. Il est également possible que ce type de polarisation brutale soit là pour rester alors que les factions politiques gagnent et perdent du terrain en ligne. Vers la fin de notre entretien, j'ai dit à M. Cain que je trouvais étrange qu'il ait réussi à sortir d'un terrier de lapin YouTube de droite, pour ensuite sauter dans un terrier de lapin YouTube de gauche. J'ai demandé s'il avait envisagé de réduire complètement sa consommation de vidéos et de reconstruire certaines de ses relations hors ligne. Il hésita et eut l'air légèrement confus. Malgré tous ses problèmes, a-t-il dit, YouTube est toujours l'endroit où les batailles politiques sont menées et gagnées. Quitter la plate-forme signifierait essentiellement abandonner le débat. Il a cependant admis qu'il devait réfléchir de manière critique aux vidéos qu'il regardait. "YouTube est l'endroit idéal pour diffuser un message", a-t-il déclaré. "Mais j'ai appris maintenant que vous ne pouvez pas aller sur YouTube et penser que vous recevez une sorte d'éducation, car ce n'est pas le cas."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd