Incidents associés

Dans la période précédant l’invasion de l’Ukraine par la Russie et tout au long du conflit en cours, les médias sociaux ont servi de champ de bataille aux États et aux acteurs non étatiques pour diffuser des récits concurrents sur la guerre et décrire le conflit en cours dans leurs propres termes. Alors que la guerre se prolonge, ces écosystèmes numériques sont inondés de désinformation. Les campagnes de propagande stratégique, y compris celles qui propagent la désinformation, ne sont en aucun cas nouvelles [en période de guerre](https://carnegieeurope.eu/2019/11/28/wars-of-ideas-hybrid-warfare-politique-interference-and-disinformation -pub-80419), mais l'évolution vers les médias sociaux comme principal canal de distribution transforme la manière dont la guerre de l'information est menée, ainsi que la question de savoir qui peut participer aux conversations en cours pour façonner les récits émergents. Il est crucial d’examiner la dynamique sous-jacente de l’impact de l’information et de la désinformation sur la guerre en Ukraine pour donner un sens au conflit actuel et trouver des solutions. À cette fin, cette note de FP Analytics révèle trois éléments essentiels : Comment les plateformes de médias sociaux sont exploitées pour diffuser des récits nationaux concurrents et de la désinformation ; Le rôle de l’intelligence artificielle (IA) dans la promotion, et potentiellement la lutte contre la désinformation ; et Le rôle des sociétés de médias sociaux et des politiques gouvernementales pour limiter la désinformation. Le rôle des médias sociaux et des campagnes nationales de désinformation ----------------------------------------- ------------------------------------ La Russie et l'Ukraine utilisent toutes deux largement les médias sociaux pour présenter leurs versions des événements qui se déroulent et pour amplifier des récits contrastés sur la guerre, y compris ses causes. conséquences et suite. Gouvernement fonctionnaires, individus [citoyens](https://www.washingtonpost.com /world/interactive/2022/ukraine-russia-war-videos-verified/) et [agences d'État](https://www.propublica.org/article/infamous-russian-troll-farm-lessly-to-be -source-de-propagande-anti-ukraine) et se sont tous tournés vers un large éventail de plateformes, notamment Facebook, Twitter, TikTok, YouTube et Telegram, pour [télécharger](https://www.cigionline.org/articles/ la guerre-sur-les-médias-sociaux-est-en-être-inventée-en-ukraine/) informations. Il est difficile de déterminer la quantité exacte de contenu mis en ligne par ces différents acteurs, mais l’ampleur des informations mises en ligne sur les réseaux sociaux à propos de la guerre est immense. Par exemple, au cours de la première semaine seulement de la guerre, les vidéos provenant de diverses sources sur TikTok avec le tag #Russia et #Ukraine ont rassemblé 37,2 milliards et 8,5 milliards de [vues](https://www.reuters.com/world /europe/facebook-is-letting-users-ukraine-lock-their-social-profiles-security-2022-02-24/), respectivement. Fondamentalement, les discours présentés par la Russie et l’Ukraine sont diamétralement opposés. La Russie encadre la guerre en Ukraine, que Poutine insiste sur le fait qu'il s'agit d'une « opération militaire spéciale », en tant que mesure défensive nécessaire en réponse à l'expansion de l'OTAN en Europe de l'Est. Poutine considère également la campagne militaire comme nécessaire pour « dénazifier » l'Ukraine et mettre fin à une prétendue le génocide est mené par le gouvernement ukrainien contre les russophones. En revanche, le récit de l'Ukraine insiste sur le fait que la guerre est une guerre d'agression, met l'accent sur son histoire en tant que nation souveraine distincte de la Russie et [dépeint](https://uscpublicdiplomacy.org/blog/glory-heroes-ukraine%E2%80%99s -récit de guerre-crédibilité) ses citoyens et ses forces armées en tant que héros se défendant contre une invasion injustifiée. L’Ukraine et la Russie ne sont pas les seuls acteurs étatiques intéressés et engagés à décrire la guerre selon leurs propres termes. Des pays tels que la Chine et la [Biélorussie](https://www.mandiant .com/resources/unc1151-linked-to-belarus-government) se sont engagés dans des efforts pour décrire le conflit selon leurs propres termes et ont lancé des campagnes de désinformation coordonnées sur les plateformes de médias sociaux. Ces campagnes ont largement minimisé la responsabilité de la Russie dans la guerre et ont promu la lutte contre -NOUS. et des postes anti-OTAN. Le mélange de récits, à la fois vrais et faux, [originaires](https://eu.boell.org/en/2022/03/01/laptop-generals-and-bot-armies-digital-front-russias-ukraine- guerre) de la part de différents acteurs étatiques ainsi que de millions d'utilisateurs individuels sur les réseaux sociaux a élargi le rôle des plateformes technologiques dans la formation de la dynamique de la guerre et pourrait influencer ses résultats. L’ampleur des informations téléchargées sur les réseaux sociaux et la vitesse à laquelle elles prolifèrent créent des défis nouveaux et complexes dans la lutte contre les campagnes de désinformation. Il est souvent difficile d'identifier l'origine d'une campagne ou sa portée, ce qui complique les efforts pour supprimer les faux contenus en masse ou identifier les faux messages avant qu'ils n'atteignent un public de masse. Par exemple, la campagne de désinformation active « Ghostwriter », attribué au gouvernement biélorusse, utilise un réseau sophistiqué de serveurs proxy et virtuels réseaux privés (VPN), ce qui lui a permis d'éviter la détection pendant des années. Avant que l'opération ne soit découverte en juillet 2021, elle a effectivement piraté les comptes de réseaux sociaux de Personnalités politiques européennes et organes d'information et diffusion [contenu fabriqué](https://www.state.gov/wp-content/uploads/2020/08/Pillars-of-Russia%E2%80%99s-Disinformation-and-Propaganda -Ecosystem_08-04-20.pdf) critique de l'Organisation du Traité de l'Atlantique Nord (OTAN) dans toute l'Europe de l'Est. Le niveau de sophistication que possèdent ces types de campagnes de désinformation modernes soutenues par l’État les rend extrêmement difficiles à détecter précocement et à contrer efficacement. La Russie, en particulier, a passé des décennies à développer un [écosystème de propagande](https://www.npr.org/2020/06/16/878169027/study-exposes-russia-disinformation-campaign-that-operated-in-the -shadows-for-6-) des canaux de communication officiels et proxy, qu'il utilise pour lancer des campagnes de désinformation de grande envergure. Par exemple, « Opération Secondaire Infektion », l'une des plus longues campagnes en cours en Russie, a diffusé de la désinformation sur des questions telles que le COVID-19. pandémie sur plus de 300 plateformes de médias sociaux depuis 2014. La diversité des plateformes de médias sociaux utilisées et la variation de leur disponibilité selon les différents pays entravent la capacité de coordonner les efforts de lutte contre la désinformation, tout en créant différents écosystèmes d’information selon les zones géographiques. Les récits de guerre qui émergent sur les réseaux sociaux prennent différentes formes, selon les plateformes et les régions, notamment en Russie et en Ukraine. Facebook et Twitter sont tous deux interdits à l'intérieur des frontières russes, mais la Russie la propagande et la désinformation destinées à un public externe florissent sur ces plateformes. En Russie, YouTube et TikTok sont toujours accessibles aux citoyens ordinaires, mais avec de lourdes la censure. La plateforme de médias sociaux la plus populaire utilisée en Russie est VKontakte (VK), qui héberge [90 pour cent](https://www.newsweek.com/russia-vk-anti-war-messages-defy-vladimir-putin-ukraine- censors-1689518) des internautes en Russie, selon les statistiques autodéclarées par l'entreprise. Il était auparavant disponible et largement utilisé en Ukraine jusqu'en 2017, mais le gouvernement ukrainien l'a [bloqué](https://www.theguardian.com/world/2017/may/16/ukraine-blocks-popular-russian-websites-kremlin- guerre de rôles) accès à VK et à d’autres médias sociaux russes tels que Yandex dans le but de lutter contre la propagande russe en ligne. En 2020, le président ukrainien Volodymyr Zelenskyy a prolongé l'interdiction de VK jusqu'à 2023, elle n’a donc pas facilité les communications entre Russes et Ukrainiens tout au long de la guerre de cette année. Les restrictions imposées par le gouvernement sur ces principales plateformes de médias sociaux font de Telegram la principale plateforme de médias sociaux actuellement accessible aux Russes et aux Ukrainiens. Telegram est un service de messagerie crypté créé et détenu par le milliardaire technologique russe Pavel Durov, qui est utilisé dans la guerre pour tout, de connecter les réfugiés ukrainiens à des opportunités de passage en toute sécurité et fournir des vidéos en temps quasi réel des événements sur le champ de bataille. Surtout, dans la lutte contre la désinformation, Telegram n'a aucune politique officielle en place pour censurer ou supprimer le contenu de toute nature. Bien que certaines chaînes de Telegram aient été fermées, la société ne publie pas de déclarations officielles expliquant pourquoi, et elle permet généralement à la majorité du contenu publié par les utilisateurs de continuer à circuler, quelle que soit sa nature. Cela permet à Telegram de servir de source de désinformation pratiquement non filtrée en Russie et en Ukraine et d'atteindre des publics qui Les plateformes de médias sociaux occidentales ont été coupées. Bien que Telegram ne filtre pas le contenu comme beaucoup d’autres plateformes, il n’utilise pas non plus d’algorithme pour booster certaines publications et s’appuie sur la messagerie directe entre les utilisateurs. Cette conception rend difficile aux outils d’IA de stimuler efficacement la désinformation. En revanche, sur d’autres plateformes telles que Twitter et Facebook, l’IA favorise la propagation rapide de la désinformation sur la guerre. L'impact de l'intelligence artificielle dans les campagnes de désinformation en ligne ----------------------------------------- ------------------------------- L'IA et ses sous-composants, tels que les algorithmes et l'apprentissage automatique, constituent des outils puissants pour générer et amplifier la désinformation sur la guerre russo-ukrainienne, en particulier sur les réseaux sociaux. Les algorithmes sous-jacents que les plateformes de médias sociaux utilisent pour déterminer quel contenu est autorisé et quelles publications sont les plus consultées entraînent des différences dans la perception des utilisateurs des événements qui se déroulent. Avant la guerre, il y avait une controverse importante sur la façon dont les plateformes de médias sociaux priorisaient et contrôlaient le contenu sur toutes sortes de questions politiques et sociales. Ces dernières années, Facebook et [YouTube](https://www.mediamatters.org/ben -shapiro/how-youtube-facilitates-right-wing-radicalization) ont été soumis à [un examen minutieux](https://www.cnn.com/2021/04/27/media/social-media-algorithms-reliable-sources/ index.html) des régulateurs aux États-Unis et en UE, préoccupés par le fait que leurs algorithmes donnent la priorité aux contenus extrémistes et pour ne pas avoir correctement supprimé désinformation malgré quelques améliorations des procédures automatisées et dirigées par l’homme. Tout au long de la guerre entre la Russie et l’Ukraine, des préoccupations similaires sont apparues sur toute une série de plateformes. Par exemple, les chercheurs ont découvert que les utilisateurs de TikTok dirigaient vers de fausses informations sur la guerre dans un délai de 40 minutes après l'inscription. Les nouveaux utilisateurs de TikTok ont vu des vidéos [affirmant](https://www.theguardian.com/technology/2022/mar/21/tiktok-algorithm-directs-users-to-fake-news-about-ukraine-war-study -dit) qu'une conférence de presse donnée par Vladimir Poutine en mars 2020 avait été "photoshopée" et que des extraits d'un jeu vidéo étaient de véritables images de la guerre. De même, l’algorithme de Facebook favorise régulièrement la désinformation sur la guerre, notamment la théorie du complot selon laquelle les États-Unis financent des armes biologiques en Ukraine. Une étude du Center for Countering Digital Hate (CCDH) a révélé que Facebook n'a pas réussi à étiqueter 80 pour cent de messages diffusant cette théorie du complot sur les armes biologiques financées par les États-Unis à titre de désinformation. Les plateformes de médias sociaux hébergent également des outils populaires basés sur l'IA pour diffuser la désinformation, tels que les [chatbots](https://www.technologyreview.com/2020/01/08/130983/were-fighting-fake-news-ai-bots-by -using-more-ai-thats-a-mistake/) et [deepfakes](https://www.infosysbpm.com/blogs/business-transformation/ai-powered-deep-fakes-how-to-identify-them .html). Les robots (programmes informatiques basés sur l'IA qui imitent les comptes d'utilisateurs sur les réseaux sociaux) sont l'un des moyens les plus efficaces de propager la désinformation sur la guerre. La Russie possède une vaste expérience dans l’utilisation efficace de robots pour diffuser de la désinformation. Par exemple, les agences gouvernementales russes et leurs filiales les ont déjà utilisées pour diffuser de la désinformation lors des [élections de 2016] aux États-Unis(https://www.npr.org/sections/alltechconsidered/2017/04/03/522503844/how-russian -twitter-bots-pumped-out-fake-news-during-the-2016-election) ainsi que tout au long de la [pandémie de COVID-19](https://metro.co.uk/2021/07/10/how -les-bots-pro-kremlin-alimentent-les-théories-du-conspiration-covid-19-14867186/). La Russie continue d'utiliser des robots, et depuis le début de la guerre en Ukraine plus tôt cette année, Twitter a signalé avoir supprimé au moins 75 000 faux comptes liés à des robots russes en ligne pour [diffusion] (https://www.abc.net.au/news/science/2022-03-30/ukraine-war-twitter-bot-network-amplifies-russian-disinformation/100944970) désinformation sur l'Ukraine. Cependant, l’ampleur et la vitesse à laquelle la désinformation peut être produite et diffusée à l’aide de robots rendent presque impossible la surveillance ou la suppression de tous les faux comptes et publications. En plus des robots, des deepfakes (des vidéos qui utilisent l'IA pour créer de fausses images et de faux sons de personnes réelles) ont circulé en ligne tout au long du conflit. Depuis mars 2022, des deepfakes représentant Vladimir Poutine et Volodymyr Zelenskyy faisant des déclarations fabriquées sur la guerre sont apparus à plusieurs reprises sur les réseaux sociaux. Un deepfake représentant Vladimir Poutine déclarant la paix a largement circulé sur Twitter, avant d'être supprimé, tandis qu'un deepfake représentant Volodymyr Zelenskyy a circulé sur YouTube et Facebook. Au-delà des deepfakes, les experts ont exprimé leur [inquiétude](https://www.technologyreview.com/2020/01/08/130983/were-fighting-fake-news-ai-bots-by-using-more-ai-thats- une erreur/) que l’IA pourrait être exploitée pour des techniques de désinformation plus sophistiquées. Il s’agit notamment de l’utilisation de l’IA pour mieux identifier les cibles des campagnes de désinformation, ainsi que de l’utilisation de techniques telles que le Traitement du langage naturel (NLP), qui permet à l’IA de produire de faux réseaux sociaux. des publications, des articles et des documents dans les médias qui sont presque impossibles à distinguer de ceux des affiches humaines. Alors que l’IA contribue à la propagation de la désinformation sur les réseaux sociaux, les outils d’IA se montrent également prometteurs pour la combattre. Le volume considérable d’informations téléchargées quotidiennement sur les réseaux sociaux rend essentiel le développement d’outils d’IA capables d’identifier et de supprimer avec précision la désinformation. Par exemple, les utilisateurs de Twitter téléchargent plus de 500 000 publications par minute, bien au-delà de ce que les censeurs humains peuvent surveiller. Les plateformes de médias sociaux commencent à combiner les censeurs humains et l’IA, pour surveiller plus efficacement les fausses informations. Facebook a développé un outil d'IA appelé SimSearchNet au début de la crise du COVID-19. 19 pandémie pour identifier et supprimer les faux messages. SimSearchNet s'appuie sur des moniteurs humains pour identifier d'abord les fausses publications, puis utilise l'IA pour identifier les publications similaires sur la plateforme. Les outils d’IA sont nettement plus efficaces que les seuls modérateurs de contenu humain. Selon Facebook, 99,5 pour cent des suppressions de contenus à caractère terroriste et 98,5 pour cent des faux comptes sont identifiés et supprimés principalement [en utilisant](https://op.europa.eu/en/publication-detail/-/publication/b8722bec-81be -11e9-9f05-01aa75ed71a1) IA formée avec les données de leurs équipes de modération de contenu. Actuellement, l’IA visant à lutter contre la désinformation sur les réseaux sociaux repose encore sur des éléments humains et informatiques. Cela limite la capacité de l'IA à détecter de nouveaux éléments de mésinformation et de désinformation, et signifie que les fausses publications atteignent régulièrement un large public avant d'être identifiées et supprimées à l'aide de l'IA. Les limites techniques actuelles qui empêchent d’identifier et de supprimer de manière proactive les fausses informations, combinées à l’ampleur des informations mises en ligne, constituent un défi permanent pour limiter la désinformation sur les réseaux sociaux dans le cadre de la guerre russo-ukrainienne et au-delà. Politiques de désinformation du gouvernement et des médias sociaux -------------------------------------------- ------- Les sociétés de médias sociaux et les gouvernements ont adopté une série de politiques pour limiter la propagation de la désinformation, mais leur application a été fragmentée, en fonction de la plateforme et de la zone géographique, avec des effets variables. Les différentes politiques appliquées par les plateformes de médias sociaux, l’ampleur de leurs efforts pour lutter contre la désinformation et leur disponibilité au sein des pays contribuent tous à façonner la façon dont le public comprend la guerre entre la Russie et l’Ukraine. Il est important de noter que les sociétés de médias sociaux sont sous contrôle privé et que leurs intérêts peuvent ou non être alignés sur divers intérêts de l’État, y compris ceux dans lesquels ces sociétés sont enregistrées et ont leur siège social, ainsi que d’autres. Dans le cadre de la guerre entre la Russie et l’Ukraine, les sociétés de médias sociaux ont pris diverses mesures. Facebook déploie un réseau de vérificateurs de faits en Ukraine pour tenter d'éliminer la désinformation, et YouTube a bloqué chaînes associées au russe médias d’État à l’échelle mondiale. Ces deux plateformes ont adopté des restrictions allant au-delà des exigences légales des sanctions américaines et européennes contre la Russie. En revanche, Telegram et TikTok n'ont pas pris de mesures aussi significatives pour limiter désinformation sur leur plateforme, au-delà de se conformer avec Sanctions de l’UE contre les médias d’État russes au sein de l’UE. Les différences de réponses entre les plateformes reflètent les pressions gouvernementales et publiques auxquelles sont soumises les différentes plateformes. En général, les plateformes basées aux États-Unis ont adopté des positions plus strictes pour limiter la désinformation russe que leurs homologues internationales, telles que Telegram et TikTok. La différence entre les politiques des plateformes de médias sociaux, leurs efforts pour limiter la désinformation et leur accès géographique deviennent tous de puissants facteurs déterminants non seulement dans la façon dont les individus consomment les informations sur la guerre entre la Russie et l'Ukraine à l'échelle mondiale, mais aussi dans les récits, y compris l'information et la désinformation. , et la désinformation --- à laquelle ils sont exposés et donc les opinions qu'ils peuvent adopter. Le rôle croissant des réseaux sociaux dans l’élaboration des discours sur les questions géopolitiques, y compris les conflits, suscite des réticences de la part des gouvernements, tant démocratiques qu’autocratiques. Cela a contribué à la tendance de certains gouvernements à imposer des restrictions à l'utilisation par le public des médias sociaux et d'Internet en général. Par exemple, la Russie a restreint son activité sur Internet depuis 2012, mais a intensifié sa répression contre les dissidents, en ligne. la dissidence et la couverture médiatique indépendante avant et depuis l’invasion de l’Ukraine. La Russie a récemment adopté de nouvelles lois ciblant les sociétés Internet étrangères, comme la [Loi souveraine sur l'Internet] de 2019(https://www.hrw.org/news/2020/06/18/russia-growing-internet-isolation-control-censorship) et la "[Loi sur l'atterrissage](https://www.cliffordchance.com/content/dam/cliffordchance/briefings/2021/10/2110_Client%20Briefing%20-%20Landing%20Law%20-%20New%20rules%20of %20the%20game.pdf)" signée en juin 2021. Ces lois accordent à l'État russe des pouvoirs étendus en matière de surveillance en ligne et obligent les sociétés Internet étrangères opérant en Russie à ouvrir des bureaux dans le pays. De plus, la Russie a complètement interdit Facebook, Twitter et Instagram dans le cadre de ses frontières. L'Ukraine a réprimé contre l'expression en ligne fin 2021, en en réponse aux craintes que la Russie ne parraine les médias ukrainiens et ne se prépare à envahir. Cependant, depuis le début de l’invasion, l’Ukraine s’est ouvertement tournée vers les médias sociaux comme moyen de diffuser des messages en dehors de ses frontières et de recueillir le [soutien] du public(https://www.nytimes.com/2022/03/25/world /europe/ukraine-war-social-media.html) pour ses efforts de résistance. À l’échelle mondiale, cela fait suite à un certain nombre de tendances existantes, notamment les efforts réglementaires de nombreux pays pour faire respecter la souveraineté numérique et des données. Un certain nombre de pays tentent désormais de réglementer les médias sociaux médias et restreindre le discours en ligne au niveau national, tout en utilisant ces mêmes plateformes pour shape récits à l'échelle internationale. Par exemple, Chine, [Iran](https://www.reuters.com/article/us-cyber-iran-specialreport/ rapport-spécial-comment-l'iran-spreads-disinformation-around-the-world-idUSKCN1NZ1FT), et [Inde](https://tribune.com.pk/story/2335695/how-india-unleashed-targeted-social- campagnes médiatiques contre le Pakistan), ont tous adopté une législation restrictive sur l'utilisation d'Internet et des médias sociaux au niveau national tout en utilisant simultanément les canaux des médias sociaux pour diffuser des campagnes de désinformation ciblées à l'échelle mondiale. L’efficacité des efforts déployés par les gouvernements à l’échelle mondiale pour limiter l’accès aux médias sociaux et prévenir la désinformation, tant dans le cadre de la guerre russo-ukrainienne que dans son ensemble, a été limitée jusqu’à présent. Les efforts de réglementation n'ont ni réduit la désinformation dans de manière robuste et systématique, ni régné sur le rôle des plateformes de médias sociaux en tant que domaines de polarisation politique et d’interactions sociales au vitriol. Même si les gouvernements ont été plus efficaces pour restreindre l’accès à l’information au sein de leurs juridictions nationales, de nombreuses personnes peuvent encore contourner les restrictions grâce aux réseaux privés virtuels (VPN). Ces réseaux permettent aux utilisateurs de masquer l'origine de la connexion Internet et proposent l'accès à des sites Web qui peuvent être bloqués à l'intérieur des frontières d'un pays spécifique. Après l'invasion de l'Ukraine par la Russie, les téléchargements VPN en Russie ont atteint plus de 400 000 par jour, illustrant l'ampleur du défi consistant à bloquer complètement l'accès aux espaces en ligne. Regard vers l'avenir ------------- Les stratégies techniques et réglementaires de lutte contre la désinformation évoluent rapidement mais n'en sont encore qu'à leurs débuts. Dans les conflits modernes, les plateformes de médias sociaux contrôlent certains des principaux canaux d’information, et leurs politiques peuvent avoir un effet démesuré sur l’opinion publique. Dans le conflit russo-ukrainien, les plus grandes plateformes mondiales de médias sociaux ont largement convenu de tenter de limiter messages de propagande russe, mais ils ont imposé beaucoup moins de restrictions sur le contenu officiel de le gouvernement ukrainien. Ce type de pouvoir étendu qu’exercent les sociétés de médias sociaux en choisissant quelles voix sont amplifiées pendant les conflits pousse les gouvernements à faire pression pour un contrôle accru sur ces canaux d’information. Entre autres, la Chine, la Russie et l'Iran imposent tous de lourdes restrictions sur le contenu pouvant être publié en ligne et ont interdit la plupart des réseaux américains. sociétés de médias sociaux basées. En outre, la Russie et la Chine prennent des mesures pour déplacer leurs populations vers les réseaux sociaux nationaux, tels que WeChat en Chine ou VKontakte en Russie, qui peuvent être fortement censurés, en plus d'une surveillance et d'une ingérence intensives du gouvernement. L'UE et l'Inde ont également imposé des restrictions réglementaires aux plateformes de médias sociaux basées aux États-Unis, dans le but de [développer](https:// www.nytimes.com/2020/02/19/business/europe-digital-economy.html) leurs propres plateformes nationales. Ces évolutions créent des défis pour les plateformes internationales de médias sociaux existantes et continuent de compliquer les efforts de lutte contre la désinformation. À mesure que les canaux de médias sociaux deviennent plus fragmentés et que les utilisateurs sont soumis à des politiques différentes restreignant le contenu et la désinformation, la coordination cohérente des efforts pour lutter contre la désinformation sur toutes les plateformes deviendra de plus en plus difficile.