Incidents associés
Cette transcription a été préparée par un service de transcription. Cette version peut ne pas être dans sa forme définitive et peut être mise à jour. Kate : Hé, c'est Kate. Aujourd'hui notre productrice Annie Minoff va vous raconter une histoire. Il s'agit d'une partie peu connue de la main-d'œuvre de l'IA, les personnes dont le travail consistait à aider à filtrer les références à la violence et aux abus sexuels sur ce qui allait devenir ChatGPT. Voici Annie. Annie Minoff : Ma collègue Karen Hao couvre l'intelligence artificielle. Et plus tôt cette année, elle s'est retrouvée à faire une interview dans une sorte d'endroit inhabituel. Karen Hao : Nous traversons actuellement, qu'est-ce que c'est ? Un champ? S'agit-il de légumes que les gens cultivent ? Annie Minoff : Karen était dans un potager à la périphérie de Nairobi, au Kenya. Karen Hao: J'étais donc là pour rencontrer cet ouvrier nommé Alex, et nous avions initialement prévu de nous rencontrer dans l'un des appartements de son ami, mais des travaux de construction étaient en cours, nous cherchions donc un autre endroit pour enregistrer. Annie Minoff : C'est pour ça qu'ils se sont retrouvés dans le potager. Karen Hao : Voulez-vous décrire davantage ce que vous voyez ? Alex Cairo : Ouais, je vois beaucoup de maisons, des herbes, des gens sur notre droite, qui nous regardent. Donc, oui, c'est un scénario parfait pour lancer ce podcast. Annie Minoff : Karen voulait parler à Alex Cairo parce qu'Alex a contribué à rendre possible l'un des produits technologiques les plus viraux de tous les temps, ChatGPT, le chatbot IA créé par la société OpenAI. Lorsque vous utilisez ChatGPT et qu'il ne crache pas de discours haineux ou de contenu extrêmement violent ou pornographique, c'est en partie grâce à Alex et ses collègues au Kenya. Karen Hao : Leur contribution consistait essentiellement à rendre ChatGPT sûr pour des dizaines de millions d'utilisateurs. Ils ont parcouru et examiné jour après jour le contenu grotesque vraiment toxique pour s'assurer que personne d'autre n'aurait jamais à le voir. Annie Minoff : Maintenant, Alex et ses collègues sont prêts à parler de ce qu'ils disent que leur travail leur a coûté. Bill Mullina : C'était très graphique. Vous ne pouvez pas commencer à lire le texte et ignorer ce qui se passe. Alex Cairo : J'ai fait des cauchemars. Je craignais les gens. J'avais peur de travailler dans le noir. Mofat Okini : Je suis très fier d'avoir participé à ce projet pour contribuer à la sécurité de ChatGPT. Mais maintenant, la question que je me pose toujours, "Est-ce que ma contribution valait ce que j'ai reçu en retour?" Annie Minoff : Bienvenue dans Le Journal, notre émission sur l'argent, les affaires et le pouvoir. Je suis Annie Minoff. Nous sommes le mardi 11 juillet. À venir dans l'émission, les travailleurs des données kenyans sur le prix qu'ils ont payé pour une IA sûre. OpenAI n'est pas la première entreprise à lancer un chatbot IA. Mais pour de nombreux bots qui ont précédé ChatGPT, il y avait un problème assez constant. Les chatbots ne se sont pas toujours bien comportés. Karen Hao : Il y a eu cette très longue histoire de chatbots qui ont déraillé très rapidement après leur lancement. C'est à peu près devenu un comportement attendu à ce stade. En 2016, il y a eu Tay de Microsoft, qui a juste commencé à cracher des remarques toxiques quelques jours après le lancement. Intervenant 9 : En moins de 24 heures, Tay a cessé de dire des choses comme : "Puis-je simplement dire que je suis ravi de vous rencontrer ?" Pour dire des choses comme, "Je (censuré) déteste les féministes et elles devraient toutes mourir et brûler en enfer." Karen Hao : Il y avait un chatbot sud-coréen, Lee Luda, en 2021. Encore une fois, un discours de haine envers la communauté LGBTQ. Et puis plus récemment en 2022, il y a eu le BlenderBot 3 de Meta, la même chose, quelques jours seulement après le lancement, a commencé à dire ces choses vraiment racistes. Annie Minoff : BlenderBot a également eu quelques mots choisis sur le patron de Meta, Mark Zuckerberg. Intervenant 10 : BlenderBot a qualifié Zuckerberg de "trop effrayant et manipulateur". Et dans un autre, il disait : "Je ne l'aime pas beaucoup. C'est une mauvaise personne." Annie Minoff : Pour les entreprises technologiques, un lancement bâclé comme celui-ci peut être un désastre. Microsoft, par exemple, a annoncé qu'il mettait son chatbot Tay hors ligne quelques jours seulement après ses débuts. OpenAI était conscient du risque. En fait, l'entreprise y avait pensé avant ChatGPT, à l'époque où elle développait des itérations antérieures de sa technologie. Et le correctif proposé par OpenAI a nécessité un peu plus d'ingénierie. Il a fallu construire un filtre. Karen Hao : Si vous imaginez votre propre cerveau, nous utilisons toujours, métaphoriquement, un filtre pour nous assurer que vous êtes socialement acceptable. C'est fondamentalement la même chose, mais la version AI. Il doit y avoir une vérification finale de la sortie avant que le modèle d'IA ne génère ce qu'il va générer. Annie Minoff : Ok, alors OpenAI avait besoin de ce filtre. Ils avaient besoin de ce filtre construit. Karen Hao : Oui, OpenAI avait besoin du filtre de modération de contenu. Et vous ne pouvez pas faire cela sans les humains. Annie Minoff : Parmi les humains qui aideraient à construire le filtre d'OpenAI, il y avait environ 50 data workers au Kenya. Et pourquoi le Kenya ? Karen Hao : Tout d'abord, le Kenya est un pays à faible revenu et son taux de chômage est très élevé. Les salaires sont vraiment bas, ce qui est très attractif pour les entreprises technologiques qui essaient d'augmenter leurs marges bénéficiaires. Et c'est aussi une main-d'œuvre très éduquée qui parle anglais à cause de la colonisation et il y a une bonne infrastructure wifi. Annie Minoff : L'un de ces travailleurs kenyans était Alex Cairo, que Karen a rencontré dans ce potager. Karen Hao : Pouvez-vous vous présenter ? Alex Cairo : Ouais, ouais, bien sûr. Mon nom est Alex. Je suis né à Nairobi à Kilimani Estate. Annie Minoff : Alex a 28 ans. Il vit avec sa femme et son frère dans la banlieue de Nairobi. Et quand il a commencé à travailler sur le filtre de sécurité d'OpenAI, il ne travaillait pas directement pour OpenAI. Il travaillait pour une autre société américaine appelée Sama. Sama est une société d'externalisation. Ses employés au Kenya ont réalisé des projets pour un groupe de grandes entreprises technologiques américaines, notamment en supprimant les messages offensants des médias sociaux. Alex dit qu'il était ravi de se joindre à nous. Alex Cairo: Je viens de postuler pour le poste, comme les gens le font, j'ai donc été embauché comme analyste culturel en mai 2021. Quand je suis arrivé à Sama, on m'a promis que c'était la future entreprise pour moi. Ils m'ont promis des compétences, une certaine formation, donc une évolution de carrière, une éducation. Je savais que je grandirais avec cette entreprise. Annie Minoff : Également à Sama, il y avait Bill Mullina. Bill Mullina : J'ai vu une publicité sur LinkedIn. Ils cherchaient un chef d'équipe. Annie Minoff : Bill était un niveau au-dessus d'Alex. Il dirigeait une équipe de quelques dizaines de personnes à Sama. Et au début, il dit qu'ils ne travaillaient pas sur le filtre d'OpenAI. Il a dit à Karen qu'ils faisaient un autre type de travail d'IA. Bill Mullina : Ils ont d'abord commencé par l'annotation des données et l'étiquetage des images. Karen Hao : Sur quels types d'annotations de données travailliez-vous ? Bill Mullina : Nous étiquetions les images. Par exemple, on vous donne une image, elle a des panneaux de signalisation, des voitures, des routes, des arbres, des ciels. Notre travail consistait donc à nous assurer de tout étiqueter sur l'image. Annie Minoff : L'annotation de données consiste essentiellement à étiqueter des images ou des passages de texte afin que les systèmes d'IA puissent en tirer des leçons. Par exemple, étiqueter des milliers d'images de scènes de rue afin qu'un système d'IA puisse apprendre à quoi ressemble un panneau d'arrêt ou un arbre. Mais l'équipe de Bill n'allait pas étiqueter les images longtemps, car en novembre 2021, le travail a changé. Sama avait un nouveau client, OpenAI. Karen Hao : OpenAI avait essentiellement des dizaines de milliers de passages de texte qu'il fallait étiqueter. Ils les remettaient donc régulièrement à Sama et les ouvriers lisaient chaque passage de texte un par un, puis lui attribuaient une étiquette. Annie Minoff : OpenAI voulait un système où si vous demandiez à l'IA d'écrire quelque chose d'horrible, comme une description d'un enfant maltraité ou une méthode pour mettre fin à vos jours, le système refuserait d'écrire cela. Cela filtrerait ces mauvaises réponses avant qu'elles ne vous parviennent. Mais pour ce faire, l'IA doit savoir ce que sont la maltraitance des enfants et le suicide. Les humains doivent l'enseigner. Et c'était le travail de l'employé de Sama, de lire des descriptions de violence extrême, de viol, de suicide, et de catégoriser ces textes pour l'IA. Voici Bill, le chef d'équipe. Bill Mullina : Leur travail principal consistait à lire le texte, puis à étiqueter les données en conséquence. Par exemple, si vous lisiez un texte à propos de contenu sexuel, il y avait une sous-catégorie pour déterminer s'il s'agissait d'inceste, et ce genre de catégories. Annie Minoff : Bill et Alex n'ont pas reçu beaucoup d'informations sur le projet. Au début, ils ne savaient même pas qu'ils travaillaient pour OpenAI. Ils ne savaient pas non plus d'où venaient ces textes. Mais selon un document de recherche d'OpenAI, ils provenaient de quelques sources. Certains ont été écrits par des humains provenant des coins les plus sombres d'Internet. D'autres ont été générés par les systèmes d'IA eux-mêmes. Les chercheurs d'OpenAI examineraient les textes et les enverraient à Sama pour étiquetage. Voici Alex. Alex Cairo : Mon expérience au cours de ces quatre mois a été la pire expérience que j'ai jamais eue en travaillant dans une entreprise, car le contenu que j'ai créé était le pire contenu que vous puissiez lire. Supposons que quelqu'un se poignarde, que quelqu'un se suicide, vous lisez quelque chose comme ça. Donc, chaque situation était très dérangeante dans le contenu que nous lisions. Annie Minoff : Alex faisait partie de l'équipe de Sama qui a étiqueté le contenu violent d'OpenAI. Un autre travailleur à qui Karen a parlé, Mofat Okini, faisait partie de l'équipe de contenu sexuel. Mofat Okini : Nous lirons un texte sur peut-être un enfant ayant des rapports sexuels avec son père ou peut-être une mère ou peut-être tous. Un enfant ayant un rapport sexuel avec un animal. Nous avions aussi des enfants qui tentaient des avances sexuelles entre eux, donc nous avons aussi eu des viols. Oui, des choses comme ça, mais elles étaient très graphiques, même si elles étaient sous forme de texte. Mais si vous lisez le texte, il devient très graphique dans votre esprit. Annie Minoff : Au début, les passages venant d'OpenAI étaient courts, pas plus de deux phrases. Mais avec le temps, ils sont devenus plus longs, jusqu'à cinq ou six paragraphes. Les travailleurs pourraient lire des centaines de ces passages par jour. Les membres de l'équipe étaient payés entre environ 1,50 $ et 3,75 $ de l'heure. OpenAI a payé à Sama des frais de service horaires de 12,50 $ pour le travail de modération. Un porte-parole d'OpenAI a déclaré que l'entreprise ne savait pas que les travailleurs examinant les textes n'en recevaient qu'une petite fraction. Une porte-parole de Sama a déclaré que ces frais de 12,50 $ couvraient également d'autres choses, comme les dépenses d'infrastructure, et que les modérateurs de contenu étaient payés selon une formule reconnue pour déterminer un salaire vital. Alex a dit à Karen que l'argent était loin d'être suffisant pour compenser le coût psychologique que le travail a commencé à prendre. Karen Hao : Donc, quand vous rentriez chez vous le soir, à quoi penseriez-vous après huit heures de lecture de tout ça ? Alex Cairo : Oh, mon état mental était très mauvais. J'ai fait des cauchemars. Je craignais les gens. Peut-être que je vois trop de monde venir. Je vois des violences. Si je vois quelqu'un tenir une fourchette ou une lame de rasoir, je vois des gens se couper ou quelque chose comme ça la nuit. je vais rêver. Je vais faire des cauchemars. Même moi, je dirai à mon frère : "D'accord, viens ici, dors avec moi pendant cinq heures avant de m'endormir parce que j'ai besoin de parler à quelqu'un avant de m'endormir. Parce que si je m'endors, je vais commencer à crier ou quelque chose comme ça. Tant de choses se passent beaucoup dans mon esprit. Yeah Yeah. Annie Minoff : Alex dit qu'il a toujours été extraverti et social, mais au fur et à mesure que le projet avançait, il s'est replié sur lui-même. Il ne voulait pas être entouré de gens. Pour Mofat, le travailleur qui faisait partie de l'équipe du contenu sexuel. L'impact de ce travail a été encore plus grand. Mofat est un homme de 28 ans à la voix douce, et Karen dit que lorsqu'il a commencé à travailler sur le projet d'IA ouverte, les choses allaient plutôt bien pour lui. Karen Hao: Il venait en fait de rencontrer une femme qui vivait à côté de lui et il vivait dans ce quartier appelé Pipeline, et il est immédiatement tombé amoureux d'elle. Ils viennent d'avoir une romance éclair et se sont mariés en quelques mois. Elle avait déjà une fille et il adorait cette fille et l'appelait sa petite fille. Et à ce jour dit encore fille au lieu de belle-fille, en la décrivant. Annie Minoff : Lorsque Mofat a commencé à travailler sur le filtre de sécurité ouvert de l'IA, il n'en a pas parlé à sa femme. Les textes qu'il lisait étaient tellement grotesques. Il dit qu'il ne voulait pas lui faire peur, mais il ne pouvait pas cacher l'effet que le travail avait sur lui. Mofat Okini : J'ai eu une petite fille. C'est arrivé au point que je ne voulais plus m'approcher autant de ma petite fille à cause du texte que je lisais. Maintenant, si vous voyez cet enfant, vous reflètez ce que vous lisez dans le texte. Ouais, le bon temps que tu as passé avec ta femme, ça t'enlève. Ainsi, vous restez comme quelqu'un qui ne ressent plus rien pour son partenaire. Annie Minoff : Moat est devenu de plus en plus éloigné de sa femme qui est devenue de plus en plus frustrée. Il savait qu'il se débattait et il voulait de l'aide. Plus précisément, il voulait des conseils psychologiques. Sama a fourni des séances de bien-être avec des conseillers, mais Mofat a dit à Karen que les séances étaient inadéquates. Mofat Okini : Si vous participez même à une session, qu'est-ce qu'ils posent à vos questions de base, par exemple : "Comment s'est passée votre journée ?" Vous avez passé les huit heures entières à travailler sur ces textes toute la journée. Et quand vous partez pour une session d'annulation de 30 minutes ou d'une heure, quelqu'un vous demande comment s'est passée votre journée ou peut-être quels sont vos projets futurs ? Ce sont des questions de base qui n'aident pas. Il faut donc aussi des professionnels. Annie Minoff : Une porte-parole de Sama a déclaré que la direction de l'entreprise n'était pas consciente de l'impact psychologique que le projet avait sur les travailleurs et qu'en dehors des conseils, l'entreprise offrait également aux travailleurs l'accès à des salles de prière et de méditation. Dans le cas de Mofat, le conseil n'a pas fonctionné. Son isolement n'a fait qu'empirer jusqu'à ce que sa relation avec sa femme atteigne un point de rupture. Karen Hao : Sa femme lui envoie un texto et lui dit : "Pouvez-vous ramener du poisson à la maison pour le dîner ?" Et il acheta trois morceaux de poisson pour lui, sa femme et sa fille. Et quand il est rentré à la maison, ils étaient partis et toutes leurs affaires avaient disparu. Annie Minoff : Waouh. Karen Hao : Et il a demandé : « Que se passe-t-il ? Mofat Okini : Et puis je lui ai demandé : « Pourquoi ne reviens-tu pas et pourquoi es-tu partie ? Et puis elle a dit: "Tu as changé. Tu as changé. Je ne te vois pas. Tu n'es pas l'homme que j'ai épousé, les choses ont changé. Je ne te comprends plus. Tu n'aimes pas mon enfant . (inaudible)" Annie Minoff : Mofat a dit à Karen qu'il ne s'attendait pas à ce qu'elle revienne et elle a refusé notre demande de commentaire. Mofat, Alex et Bill ont travaillé sur le projet de filtre d'open AI pendant cinq mois. Pendant tout ce temps, ils n'étaient même pas sûrs de ce qu'ils aidaient à construire ou de sa signification, mais eux et le monde étaient sur le point de le découvrir parce que ChatGPT arrivait. C'est après la pause. ChatGPT a été mis en ligne en novembre de l'année dernière. Karen Hao : ChatGPT a conquis le monde. Vous voyiez juste des gens l'essayer et le tester pour toutes sortes de choses. Et au fil des jours, les choses qu'ils ont essayées sont devenues de plus en plus sophistiquées. Annie Minoff : Les gens ont demandé à ChatGPT de proposer des recettes basées sur tout ce qu'ils avaient dans le réfrigérateur. Intervenant 11 : Jésus, c'est vraiment bien. Annie Minoff : Ils lui ont demandé de les aider à choisir leur prochaine destination de vacances. Intervenant 12 : ChatGPT m'a donné cinq bonnes idées, et je suis allé à Palm Springs, en Californie. Annie Minoff : Ils lui ont demandé toutes sortes de choses. Intervenant 13 : J'ai demandé à Chad GT de m'écrire une chanson intitulée Sexy Bus juste pour voir comment ça se passerait. Intervenant 14 : Puis je l'ai vu briller de mille feux (inaudible) Bus argenté brillant, construit tellement froid. C'est sexy. Karen Hao : C'est parti de "Oh, laisse-moi écrire un poème." Et, "Putain de merde. C'est tellement bon d'écrire ce poème" à "Oh, laissez-moi essayer de coder un site Web entier avec ce truc. Putain de merde. Ça peut aussi faire ça aussi." Et il y a eu un changement si profond de la terre sous nous d'une manière qui n'avait jamais été possible auparavant, et nous avons soudainement cette technologie qui ouvre un univers de potentiel complètement différent. Annie Minoff : Une autre façon dont ChatGPT a fait un grand pas en avant. C'était généralement assez sûr. Karen Hao : L'une des raisons pour lesquelles ChatGPT a pu devenir si viralement populaire et a continué à maintenir sa popularité est qu'il ne crache en grande partie pas de choses vraiment horribles. Les gens se sentent à l'aise d'utiliser le produit en sachant qu'il ne le fera pas. Annie Minoff : Au moins ça ne le fera pas en anglais. Si Alex voulait utiliser ChatGPT dans sa langue maternelle, le swahili, en serait-il capable ? Karen Hao : Vous pouvez interagir avec ChatGPT en swahili, mais ChatGPT a été développé principalement pour fonctionner en anglais. Ainsi, une grande partie du nettoyage, de la modération du contenu, des mesures de sécurité importantes au sein du chatbot ont été effectuées en anglais. Ainsi, lorsque vous l'invitez en swahili, vous obtenez plus de désinformation. Vous obtiendrez des phrases plus confuses qui n'ont pas de sens, et vous obtiendrez potentiellement plus de ce contenu qu'ils ont travaillé si dur pour filtrer parce qu'ils ne le filtraient qu'en anglais. Annie Minoff : Waouh. Je n'avais même pas pensé à ça. Que le genre de filtre que vous construiriez pour détecter les discours de haine, la violence et les agressions sexuelles en anglais, cela ne fonctionnerait pas forcément aussi bien en swahili. Karen Hao : Exactement. Annie Minoff : Au moment où ChatGPT a pris le contrôle du monde, les modérateurs de Sama au Kenya avaient déjà abandonné le projet de filtre pendant huit mois. En fait, leur travail s'était terminé tôt et brusquement. Le contrat de Sama avec OpenAI était censé durer un an, mais une porte-parole de Sama a déclaré que Sama l'avait annulé après seulement cinq mois en raison d'un différend avec OpenAI sur un projet connexe. Après la fin du projet de filtre, Alex Bill et Mofat ont poursuivi d'autres travaux chez Sama avant de finalement quitter complètement l'entreprise à la fin de l'année dernière. Bill et Mofat travaillent toujours sur les données dans d'autres entreprises. Ils disent que leurs nouveaux emplois n'impliquent pas l'examen de contenu toxique. Alex est actuellement au chômage, mais bien qu'ils ne travaillent plus chez Sama, ils disent qu'ils continuent de lutter avec ce qui s'est passé pendant ces mois sur le projet de filtre, et maintenant ils essaient de changer les choses pour toutes les personnes qui continuent à faire ce travail . Bill et Mofat disent qu'ils ont commencé à s'organiser. Karen Hao : Comment vous est venue l'idée d'un syndicat ? Bill Mullina : Nous avons eu l'idée parce que nous avons remarqué que ce n'était pas seulement Sama (inaudible), c'était tout le pays qui vivait le même genre d'expériences. Nous avons rencontré des gens d'autres entreprises qui faisaient du travail de modération de contenu, et nous avons réalisé que les expériences se ressemblaient tellement. Nous avons donc décidé qu'au lieu qu'une personne mène seule ses ou nos batailles, nous formons une équipe et ensuite nous formons un syndicat. Mofat Okini : Nous voulons juste nous assurer que tous ceux qui font de la modération de contenu en ce moment ou à l'avenir, ont de meilleures conditions de travail. Ils sont mieux payés, leurs droits sont respectés. Alors nous nous battons pour toute la génération à venir et nous aussi. Annie Minoff : Jusqu'à présent, leur syndicat comprend plus de 150 travailleurs des données dans plusieurs entreprises au Kenya. Bill, Mofat et Alex font également pression pour un changement législatif aujourd'hui avec leur avocat kenyan et le soutien d'une organisation à but non lucratif britannique appelée Foxglove. Ils ont déposé une pétition auprès du parlement kenyan. Dans la pétition, ils ont exhorté le gouvernement à réglementer l'industrie de l'IA et à renforcer la protection des travailleurs. Il appartient maintenant au Parlement de décider s'il convient de retenir ces suggestions. Quant à OpenAI, la société a déclaré dans le communiqué que l'annotation des données est un travail difficile qui doit être fait humainement et volontairement. Il a déclaré que les efforts des travailleurs pour assurer la sécurité des systèmes d'IA ont été cités comme "immensément précieux". Une porte-parole de Sama a déclaré que l'entreprise soutenait ses travailleurs de toutes les manières possibles et qu'elle ne prenait plus de projets de modération de contenu. Elle a déclaré que le travail n'avait jamais fait partie intégrante des activités de l'entreprise et qu'elle avait pris la décision stratégique de s'en retirer complètement. Lorsque ChatGPT a été lancé, il y avait beaucoup d'enthousiasme quant à ce que l'IA pourrait réaliser. Il y avait aussi beaucoup de discussions sur les emplois qu'il pourrait remplacer. Mais ce qui a échappé au radar, c'est le travail que l'IA est déjà en train de créer dans le monde entier. Les travailleurs de l'IA examinent toutes sortes de contenus. Ils contribuent à rendre l'IA plus précise, plus utile et plus sûre. Les choses qu'ils examinent sont souvent bénignes. Ils étiquettent des images de panneaux de signalisation ou d'arbres, mais parfois ce n'est pas le cas. Ils qualifient les discours de haine, la violence et les abus sexuels extrêmes. Et Karen dit que cette partie du travail ne va pas disparaître de si tôt. Karen Hao : C'est un travail qui va continuer à croître en termes de demande. C'est quelque chose que les chercheurs qui construisent ces systèmes de chatbot m'ont décrit comme un travail nécessaire et persistant, car plus ces systèmes sont mis entre les mains d'un plus grand nombre d'utilisateurs, plus ils deviennent créatifs et plus les abus, en gros, que ces entreprises doivent rendre compte pour. C'est donc comme un processus itératif où le filtre de sécurité doit être continuellement mis à jour au fil du temps et chaque fois qu'il est mis à jour, cela signifie plus de travail à faire dans la veine de ce qu'Alex, Mofat et Bill ont fait. Annie Minoff : C'est tout pour aujourd'hui, mardi 11 juillet. Le Journal est une coproduction de Gimlet et du Wall Street Journal. Reportage supplémentaire dans cet épisode par (inaudible) Ramen. Merci pour votre écoute. A demain.