Incidents associés

Le 3 octobre 2022, la Cour suprême a annoncé qu'elle entendrait deux affaires qui pourraient fondamentalement changer l'avenir de l'internet moderne. Gonzalez c. Google et Twitter, Inc. c. Taamneh impliquent à la fois la loi antiterroriste et l'article 230 de la loi sur la décence des communications, qui protège les plates-formes technologiques des poursuites pour hébergement et modération du contenu des utilisateurs. L'article 230 est l'une des lois les plus importantes en matière de politique technologique, et ce sera la première fois que la Cour suprême interprétera son champ d'application. En 1996, à l'aube de l'ère d'Internet, la section 230 a été créée pour encourager le développement d'Internet tout en favorisant un environnement en ligne sûr où les utilisateurs peuvent se connecter et s'exprimer civilement. Plus de 25 ans après sa promulgation, on craint que les plateformes de médias sociaux ne jouent un rôle dans la radicalisation des extrémistes, ce qui peut conduire à la violence hors ligne. La question juridique présentée ici est de savoir si l'article 230 protège les services en ligne contre les poursuites fondées sur les recommandations faites par leurs algorithmes. Alors que l'article 230 fait son chemin vers la Cour suprême, quels sont les enjeux et le Congrès devrait-il intervenir en premier? Comprendre l'article 230 ------------------------- L'article 230 contient deux dispositions clés qui régissent Internet : > 1. Section 230(c)(1) : _"Aucun fournisseur ou utilisateur d'un service informatique interactif ne doit être considéré comme l'éditeur ou le locuteur d'informations fournies par un autre fournisseur de contenu d'informations." _ Connues sous le nom des 26 mots qui ont créé Internet, les plateformes en ligne ne peuvent être tenues responsables des propos et des actes de leurs utilisateurs. Ces protections juridiques ont été créées pour protéger l'innovation d'Internet en empêchant un afflux de poursuites pour préjudice généré par l'utilisateur. Sans l'article 230, les sociétés de médias sociaux pourraient être poursuivies pour chaque message et publication publié sur leurs services. > 2. Section 230(c)(2) : « Aucun fournisseur ou utilisateur d'un service informatique interactif ne peut être tenu pour responsable de… toute action prise volontairement de bonne foi pour restreindre l'accès ou la disponibilité du matériel que le fournisseur ou l'utilisateur considère comme obscène, obscène, lascif, sale, excessivement violent, harcelant ou autrement répréhensible, que ce matériel soit ou non protégé par la Constitution… » Connue sous le nom de disposition du bon samaritain, cette clause a été promulguée pour offrir une large immunité aux plateformes lorsqu'elles choisissent modérer le contenu de bonne foi. Les législateurs voulaient éviter un no man's land anarchique sur Internet et veiller à ce que les plateformes soient des environnements en ligne sûrs - et qu'ils ne soient pas pénalisés dans cette tentative. Les plateformes sont encouragées à bloquer et filtrer volontairement les contenus répréhensibles ; cependant, ils bénéficient de l'immunité s'ils ne le font pas. Comprendre la modération de contenu algorithmique -------------------------------------------- Dans le contexte actuel monde très avancé, les technologies de contenu algorithmique jouent un rôle de plus en plus important dans notre vie quotidienne. Dans le cadre des protections de la section 230, les services en ligne ont construit et déployé de puissants systèmes de modération de contenu, combinant à la fois des modérateurs automatisés et humains. Les plateformes en ligne utilisent un filtrage automatisé pour traiter les données générées par les utilisateurs, retenir l'attention des utilisateurs et détecter les abus en ligne. Plus controversé, les algorithmes recommandent également du contenu aux utilisateurs en fonction de leurs préférences et de leur historique de recherche. Par exemple, un utilisateur qui regarde une vidéo de chat sur YouTube peut voir un contenu similaire (par exemple, des vidéos de chiens ou d'animaux de compagnie) qui lui est recommandé à l'avenir. Le fil d'actualité d'une personne sur les réseaux sociaux est le résultat de recommandations algorithmiques. Une question devant la Cour suprême avec Gonzalez c. Google est de savoir si, en vertu de l'article 230, un site Web ou un service "développe" du contenu - et perd donc son immunité - lorsqu'il utilise un algorithme pour recommander un contenu terroriste en fonction de l'historique de visionnage d'un utilisateur. Comme l'a fait valoir l'Institut de droit et de politique sur l'intelligence artificielle (https://digitalcommons.law.scu.edu/historical/2515/) dans un mémoire d'amicus devant le neuvième circuit, la Cour doit déterminer si les algorithmes de recommandation de contenu sont des outils de facilitation neutres. ou un moyen de développer un contenu adapté à l'utilisateur. Si la Cour détermine que les algorithmes de recommandation ne relèvent pas du champ d'application de l'article 230, la décision aurait d'énormes implications sur le fonctionnement des sites Web. Une dernière question soulevée par le tribunal inférieur dans Gonzalez est de savoir si le Congrès devrait imposer des exigences supplémentaires aux services en ligne compte tenu de leur capacité accrue à modérer les contenus préjudiciables. Par exemple, de nombreux sites Web qui exploitent les nouvelles technologies ont atteint un [montant réussi](https://www.forbes.com/sites/niallmccarthy/2020/05/13/facebook-removes-record-number-of-hate-speech -posts-infographic/?sh=4e91f57c3035 ) de réduction de contenu nuisible, bien qu'il y ait des limites. Comme l'écrit le tribunal de première instance(https://casetext.com/case/gonzalez-v-google-llc), "le Congrès pourrait bien décider qu'une réglementation plus stricte est nécessaire", étant donné les capacités améliorées des plates-formes à filtrer de manière proactive les contenus dangereux. . Cela pourrait inciter les entreprises en ligne à investir dans la recherche et le développement de technologies de modération de contenu plus avancées. Gonzalez c. Google ------------------ Début octobre 2022, la Cour suprême a accepté de se saisir d'une affaire mettant en cause la responsabilité des services en ligne pour avoir amplifié le contenu d'une organisation terroriste, qui aurait radicalisé les sympathisants de l'Etat islamique en menant des attaques terroristes coordonnées autour de Paris en 2015 qui ont tué Nohemi Gonzalez et bien d'autres. La Cour suprême entendra les contestations de l'immunité des entreprises en vertu de l'article 230 de la Communications Decency Act de 1996, qui prévoit l'immunité pour certaines actions intentées contre des services en ligne. Il est important de noter que c'est également la première fois que la Cour suprême décide de reprendre l'article 230 dans son rôle. La décision de la Cour suprême dans Gonzalez c. Google aura très certainement des implications majeures pour l'avenir du l'Internet. Les plaignants de cette affaire soutiennent 1) que le défendeur a violé la loi antiterroriste en communiquant les messages de l'Etat islamique, radicalisant les recrues et faisant avancer leur mission, et 2) devrait être tenu responsable de ce contenu car il a été promu par le biais de recommandations ciblées sur son site Web. Les plaignants allèguent que cette promotion constituait une aide et une complicité de Google dans les efforts de promotion et de recrutement de ces organisations terroristes. Par ce biais, les plaignants soutiennent que YouTube a fourni un "soutien matériel" à l'Etat islamique - qu'ils avaient sciemment autorisé l'Etat islamique à publier des centaines de vidéos sur YouTube, et que les services fournis par cet algorithme, qui permettait aux téléspectateurs d'accéder à d'autres contenus similaires, "étaient essentiel à la croissance et à l'activité d'ISIS. Le défendeur fera valoir que 1) l'article 230 interdit la responsabilité pour le contenu de tiers publié sur leurs sites Web, et 2) l'article 230 n'exempte pas le contenu recommandé des protections de responsabilité, comme établi par le précédent dans les décisions des tribunaux du neuvième circuit et du deuxième circuit. Le mémoire d'opposition de Google à la requête demandant à la Cour suprême de réexaminer cette affaire expose ces défenses. Il défend également que sa technologie YouTube n'a pas violé l'ATA ni fourni une aide substantielle à l'organisation terroriste. La question juridique au cœur de cette affaire est de déterminer ce qui suit : responsabilité des services informatiques interactifs lorsqu'ils exercent des fonctions éditoriales traditionnelles (telles que la décision d'afficher ou de retirer) à l'égard de ces informations ? » ** Si la Cour suprême tranche en faveur des plaignants, cela pourrait signifier que les plateformes en ligne devraient modifier leur mode de fonctionnement pour éviter d'être tenues responsables du contenu promu sur leurs sites. Cela pourrait conduire à un Internet plus censuré, où le contenu n'est publié sur les sites Web que s'il n'y a pas de répercussions potentielles. Comme le reconnaît la requête de la Cour, les implications de l'examen de l'article 230, tel qu'il s'applique aux recommandations générées par des algorithmes, sont importantes car elles sont utilisées dans presque tous les cas d'utilisation d'Internet ; par conséquent, les effets de cette décision pourraient modifier les modèles commerciaux des entreprises technologiques et Internet tel que nous le connaissons. Twitter, Inc. c. Taamneh ------------------------ Aux côtés de Gonzalez, la Cour suprême a également retenu une poursuite distincte mais connexe - Twitter, Inc. V. Taamneh – qui remet en question la responsabilité des services en ligne pour le contenu qui a conduit à la mort de Nawras Alassaf , un citoyen jordanien, lors d'une attaque affiliée à l'Etat islamique à Istanbul en 2017. La famille a poursuivi Twitter, Google et Facebook, alléguant que les entreprises n'avaient pas réussi à contrôler le contenu terroriste proliféré sur leurs sites, arguant que les plateformes fournissaient une infrastructure dans laquelle l'Etat islamique pouvait promouvoir les messages, ce qui à son tour soutenu leurs opérations; les entreprises ont ensuite bénéficié en tirant des revenus de ces publicités ciblées. La Cour suprême répondra si 1) le service en ligne qui détecte régulièrement et dissuade les terroristes d'utiliser les services "sciemment" aidé le terrorisme en ne prendre des mesures plus importantes pour empêcher une telle utilisation et 2) si le service devrait être tenu responsable d'avoir aidé et encouragé le terrorisme en vertu de la loi antiterroriste modifiée par la loi sur la justice contre les parrains du terrorisme (JASTA). La [Chambre de commerce](https://www.chamberlitigation.com/sites/default/files/cases/files/21212121/U.S.%20Chamber%20Amicus%20Brief%20--%20Taamneh%20v.%20Twitter%20% 28Ninth%20Circuit%29.pdf ) a déposé un mémoire d'amicus auprès de la Circuit Court, soutenant l'argument de Twitter selon lequel cette décision élargit la portée de la loi antiterroriste au-delà de l'intention du Congrès pour la loi. Il affirme que les entreprises ne devraient pas être tenues responsables des acteurs non identifiés utilisant le produit pour favoriser le terrorisme, "sinon, les entreprises seraient chargées de la tâche insurmontable de surveiller activement l'ensemble de leur clientèle, qui, dans le cas des défendeurs, se chiffre en milliards. ” Il y a des implications sur la modération du contenu et si les entreprises pourraient être tenues responsables d'activités violentes, criminelles ou diffamatoires promues sur leurs sites Web. Si la Cour statue en faveur du plaignant, alors malgré le travail continu de la plateforme pour empêcher la plupart des contenus terroristes de son site, une mauvaise gestion de ce type entraînerait des poursuites judiciaires. Des politiques de modération de contenu plus importantes et des restrictions sur la publication de contenu devraient être mises en œuvre, sinon cela incitera les plates-formes à n'appliquer aucune modération de contenu pour éviter la prise de conscience. Indépendamment de la manière dont Gonzalez ou Twitter, Inc. sont décidés, ces affaires façonneront certainement le paysage réglementaire des médias sociaux de multiples façons - de la façon dont ces entreprises fonctionnent au discours sur la réglementation des médias sociaux et la liberté d'expression. Contexte ---------- ### Cour Suprême La Cour Suprême n'a pas interprété les limitations et exceptions de la loi ; cependant, le juge Clarence Thomas a déjà exprimé son scepticisme à l'égard de l'article 230. Le juge Thomas a exprimé son mécontentement face à la décision de la Cour suprême cette année de ne pas examiner plus avant Jane Doe c. Facebook, Inc., déclarant : « En supposant que le Congrès n'intervienne pas pour clarifier les 230 portée, nous devrions le faire dans un cas approprié. Certaines affaires portées devant les tribunaux inférieurs sont immédiatement pertinentes à examiner et importantes pour l'interprétation de la loi. Dans Force c. Facebook (2019), un procès très similaire à Gonzalez c. Google, les citoyens américains des attaques terroristes en Israël ont allégué que le Hamas avait publié du contenu sur Facebook qui encourageait activement les attaques terroristes en Israël. Le tribunal a statué que l'article 230 immunisait Facebook de toute responsabilité en tant qu'éditeur prenant des décisions éditoriales. La Cour suprême a refusé d'entendre l'affaire. La question de savoir si l'immunité peut être accordée si l'algorithme de recommandation de Google est un outil "neutre" qui n'ajoute pas directement au contenu a préséance dans les récentes affaires judiciaires. L'affaire Dyroff c. Ultimate Software Group Inc. montre qu'un service en ligne encourageait les utilisateurs à partager des expériences de première main via une zone de texte ouverte et utilisait des algorithmes pour recommander des groupes en fonction des publications des utilisateurs. Le service avait utilisé des outils «neutres» pour faciliter les communications et était donc immunisé lorsqu'un utilisateur publiait des opportunités d'acheter de la drogue et faisait plus tard une overdose d'héroïne contenant du fentanyl. En revanche, ceux qui s'opposent à l'immunité des plateformes, y compris la dissidence dans Gonzalez, soutiennent qu'un site Web ou un service en ligne "amplifie positivement" le contenu lorsque son algorithme de recommandation dirige le contenu terroriste vers des utilisateurs dont il sait qu'ils sont susceptibles d'agir en conséquence. Dans FHC v. Roommates.com, un service de jumelage locataire-propriétaire n'était pas à l'abri de plaintes pour discrimination car plutôt que de recommander des locataires en fonction des entrées des utilisateurs dans une zone de texte ouverte, le site Web invitait les locataires à répondre à des questions sur leur sexe, leur sexualité l'orientation et le nombre d'enfants séjournant avec le demandeur. ### Paysage du Congrès Au niveau fédéral, le débat sur l'article 230 a été une question partisane majeure. Les démocrates et les républicains au Congrès sont devenus spéculatifs sur l'article 230, bien que pour des raisons différentes impliquant des arguments en faveur de la modération par rapport à des arguments anti-censure. Les législateurs démocrates soutiennent que l'article 230 encourage la diffusion de contenus préjudiciables tandis que les entreprises technologiques détournent la responsabilité. À l'inverse, les législateurs républicains affirment que l'article 230 permet à ces entreprises de violer la liberté d'expression en censurant injustement les points de vue conservateurs, comme la suppression de la plate-forme d'un président républicain en exercice. Néanmoins, malgré tous les discours sur l'abrogation ou la modification de l'article 230, la législation affectant les plateformes de médias sociaux s'est avérée très difficile à adopter. Plus de 20 projets de loi visant à abroger ou à réformer l'article 230 ont été présentés au 117e Congrès des États-Unis, mais aucun d'entre eux n'a failli être adopté. Un consensus bipartisan autour de l'article 230 est peu probable de sitôt, mais l'impasse pourrait être agitée lorsque l'affaire Gonzalez contre Google attirera l'attention nationale et influencera l'élaboration des politiques fédérales. La décision de la Cour suprême pourrait modifier fondamentalement la portée de l'article 230, ce qui fera pression sur le Congrès pour qu'il agisse. Si les législateurs veulent poursuivre des propositions législatives efficaces, une compréhension précise du fonctionnement de ces plateformes est nécessaire, et il y a [préoccupations](https://www.vox.com/policy-and-politics/2018/4/10/ 17222062/mark-zuckerberg-testimony-graham-facebook-regulations) que les législateurs peuvent avoir besoin de plus d'expertise technique pour naviguer sur la question. Ce qui est en jeu? ---------------- Au cœur des deux cas se trouve la manière dont les services en ligne modèrent leur contenu. Bien qu'il soit difficile de prédire l'issue de ces affaires, les implications de la modification de l'article 230, même d'une opinion étroitement adaptée, sont importantes. Les décisions pourraient ouvrir toutes sortes de nouvelles portes pour de futurs litiges, provoquant un afflux de législations par les législateurs étatiques et fédéraux et changeant fondamentalement l'avenir d'Internet. Les décisions de la Cour suprême sur ces affaires seront essentielles pour les protections de responsabilité de l'article 230 pour les plateformes en ligne. À un extrême, la Cour pourrait adopter une vision large de l'article 230, renforçant ses protections. Cela créerait probablement un Internet plus passif dans un premier temps, où le contenu n'est ni réglementé ni modéré. Il y aurait une plus grande incitation à ne pas restreindre le contenu, car cela créerait une censure non neutre de la parole et violerait potentiellement les droits du premier amendement. Par conséquent, un afflux de contenus haineux ou dangereux peut faire surface plus facilement et perturber les garanties que les entreprises ont conçues pour leurs utilisateurs. Alternativement, la Cour peut réduire les protections en vertu de l'article 230. Cela inciterait probablement une plus grande modération du contenu, potentiellement par des équipes d'avocats, pour éviter les responsabilités légales. L'examen du contenu à ce titre serait financièrement lourd, en particulier pour les petites entreprises. Leur capacité à s'assurer que chaque contenu publié sur leur site n'enfreint pas la loi coûtera cher. Cela pourrait également conduire à un Internet plus fermé, où le contenu des utilisateurs est excessivement supprimé et les canaux sociaux ont une portée limitée. Par exemple, en 2021, CNN a fermé sa page Facebook après un tribunal australien a statué que les éditeurs de nouvelles pouvaient être tenus responsables des commentaires sur les liens d'articles. Tout comme les rédacteurs de l'article 230 n'ont pas envisagé d'algorithmes de recommandation sophistiqués, les réformateurs doivent envisager des répercussions non seulement pour les plateformes de médias sociaux, mais aussi pour les futures plateformes en ligne. Par exemple, les plates-formes de référentiel open source offrent aux utilisateurs un espace pour partager ou adopter du code open source pour la construction d'Internet. Ces plateformes sont souvent considérées comme bénéfiques pour l'innovation, mais risquent de faire face à une plus grande responsabilité. Si l'article 230 est interprété comme s'appliquant aux plates-formes open source, elles adopteront probablement une approche de modération plus stricte et restreindront la collaboration pour maintenir leur immunité. D'autre part, des interprétations plus larges de l'article 230 pourraient perturber les efforts visant à développer une infrastructure de confiance et de sécurité, telles que les [pratiques] d'utilisation et de modération acceptables actuelles (https://huggingface.co/content-guidelines). L'autorégulation du « web3.0 » peut également être interprétée différemment après les arrêts de la Cour. Des questions subsistent sur la manière d'évoquer les passifs dans les espaces Web 3.0 décentralisés ou sur ce que pourrait être le métaverse. L'avenir de l'article 230 -------------------- Alors que Gonzalez c. Google est la première affaire que la Cour suprême entend sur l'article 230, d'autres affaires sont à venir probablement. De nombreux États américains réagissent à l'échec des réglementations fédérales en prenant en main la question de l'article 230. Récemment, des lois très médiatisées au Texas et en Floride interdisent largement la censure du « point de vue » et la dévalorisation des candidats politiques. Les groupes de pression de l'industrie technologique, NetChoice et l'Association de l'industrie informatique et des communications, ont contesté les deux lois en faisant valoir qu'elles sont inconstitutionnelles parce qu'elles violent les droits du premier amendement des entreprises privées à exercer un jugement éditorial. Après de longues batailles de va-et-vient entre l'industrie technologique et les tribunaux, les deux lois sont actuellement bloquées alors que leurs affaires sont en attente de requêtes de la Cour suprême. Il y a quelques mois, la loi du Texas (HB20) a été confirmée comme constitutionnelle par la Cour d'appel du cinquième circuit, ce qui contredit une décision de la Cour d'appel du onzième circuit, qui a jugé la loi de la Floride (SB7072) inconstitutionnelle. Les décisions contradictoires, ou «division de circuit», entre les cours d'appel rendront plus probable l'intervention et le poids de la Cour suprême. Conclusion ---------- Maintenant que l'article 230 fait enfin ses débuts à la Cour suprême , la politique technologique est confrontée à un très grand moment. Sachant que la plupart des Américains profitent en ligne des nombreux avantages des médias sociaux et de l'Internet ouvert, il ne fait aucun doute que les tribunaux et le Congrès devraient examiner attentivement l'ensemble du paysage juridique lorsqu'ils tentent de remédier aux préjudices. BPC continuera de surveiller ces procédures et développements. au Congrès au fur et à mesure qu'ils se dérouleront en 2022-2023.