Problème 2940

Pendant des années, des réseaux sociaux géants comme Facebook, Twitter et Instagram ont fonctionné selon deux principes cruciaux.
La première est que les plateformes ont le pouvoir de décider du contenu à conserver en ligne et de celui à supprimer, sans contrôle gouvernemental. La seconde est que les sites Web ne peuvent être tenus légalement responsables de la plupart de ce que leurs utilisateurs publient en ligne, protégeant les entreprises des poursuites pour discours diffamatoire, contenu extrémiste et préjudice réel lié à leurs plateformes.
La Cour suprême est maintenant sur le point de reconsidérer ces règles, ce qui pourrait conduire à la réinitialisation la plus importante des doctrines régissant le discours en ligne depuis que les autorités et les tribunaux américains ont décidé d'appliquer peu de réglementations au Web dans les années 1990.
Vendredi, la Cour suprême devrait discuter de l'opportunité d'entendre deux affaires qui contestent les lois du [Texas] (https://www.nytimes.com/2022/09/16/business/texas-social-media-political-law .html) et Florida interdisant aux plateformes en ligne de supprimer certains contenus politiques. Le mois prochain, le tribunal est programmé pour entendre une affaire qui interroge Section 230, une loi de 1996 qui protège les plateformes de toute responsabilité pour le contenu publié par leurs utilisateurs.
Les affaires pourraient éventuellement modifier la position juridique de non-intervention que les États-Unis ont largement adoptée à l'égard du discours en ligne, bouleversant potentiellement les activités de TikTok, Twitter, Snap et Meta, qui possède Facebook et Instagram.
"C'est un moment où tout pourrait changer", a déclaré Daphne Keller, une ancienne avocate de Google qui dirige un programme au Cyber Policy Center de l'Université de Stanford.
Les cas font partie d'une bataille mondiale croissante sur la façon de gérer les discours nuisibles en ligne. Ces dernières années, alors que Facebook et d'autres sites attiraient des milliards d'utilisateurs et devenaient des vecteurs de communication influents, le pouvoir qu'ils exerçaient a fait l'objet d'un examen de plus en plus minutieux. Des questions se sont posées sur la manière dont les réseaux sociaux auraient pu affecter indûment les élections, [les génocides](https: //www.nytimes.com/2018/10/15/technology/myanmar-facebook-genocide.html), guerres et débats politiques.
Dans certaines parties du monde, les législateurs ont décidé de limiter l'influence des plateformes sur la parole. L'année dernière, [les législateurs européens ont approuvé les règles](https://www.nytimes.com/2022/04/22/technology/european-union-social-media-law.html#:~:text=The%20law%2C %20a appelé%20le%20Digital,des milliards%20de%20dollars%20en%20amendes.) qui obligent les sociétés Internet à mettre en œuvre des procédures pour supprimer les contenus illicites et à être plus transparentes sur la manière dont elles recommandent le contenu aux gens.
Aux États-Unis, où la liberté d'expression est inscrite dans le premier amendement, il y a eu moins d'action législative. Alors que les législateurs de Washington ont interrogé les directeurs généraux des géants de la technologie au cours des trois dernières années sur le contenu qu'ils suppriment, les propositions visant à réglementer le contenu préjudiciable n'ont pas eu de succès.
La partisanerie a aggravé l'impasse. Les républicains, dont certains ont accusé Facebook, Twitter et d'autres sites de les censurer, ont fait pression sur les plateformes pour qu'elles laissent plus de contenu en place. En revanche, les démocrates ont déclaré que les plateformes devraient supprimer plus de contenu, comme la désinformation sur la santé.
L'affaire de la Cour suprême qui conteste l'article 230 de la Communications Decency Act est susceptible d'avoir de nombreux effets d'entraînement. Alors que les journaux et les magazines peuvent être poursuivis en justice pour ce qu'ils publient, l'article 230 protège les plateformes en ligne des poursuites judiciaires concernant la plupart des contenus publiés par leurs utilisateurs. Il protège également les plateformes des poursuites judiciaires lorsqu'elles suppriment des publications.
Pendant des années, les juges ont cité la loi en rejetant les plaintes contre Facebook, Twitter et YouTube, garantissant que les entreprises n'assumaient pas de nouvelle responsabilité légale à chaque mise à jour de statut, publication et vidéo virale. Les critiques ont déclaré que la loi était une carte Get Out of Jail Free pour les géants de la technologie.
"S'ils n'ont aucune responsabilité à l'arrière pour les dommages qui sont facilités, ils ont essentiellement pour mandat d'être aussi imprudents que possible", a déclaré Mary Anne Franks, professeur de droit à l'Université de Miami.
La Cour suprême a précédemment refusé d'entendre plusieurs affaires contestant la loi. En 2020, le tribunal a rejeté une action en justice intentée par les familles d'individus tués dans des attentats terroristes, selon laquelle Facebook était responsable de la promotion de contenus extrémistes. En 2019, le tribunal a refusé d'entendre le cas d'un homme qui a déclaré que son ancien petit ami avait envoyé des gens pour le harceler en utilisant l'application de rencontres Grindr. L'homme a poursuivi l'application, affirmant qu'elle contenait un produit défectueux.
Mais le 21 février, le tribunal prévoit d'entendre l'affaire Gonzalez contre Google, intentée par la famille d'un Américain tué à Paris lors d'un attentat perpétré par des partisans de l'État islamique. Dans son procès, la famille a déclaré que l'article 230 ne devrait pas protéger YouTube de l'affirmation selon laquelle le site vidéo soutenait le terrorisme lorsque ses algorithmes recommandaient des vidéos de l'État islamique aux utilisateurs. La poursuite fait valoir que les recommandations peuvent compter comme leur propre forme de contenu produit par la plate-forme, les retirant de la protection de l'article 230.
Un jour plus tard, le tribunal prévoit d'examiner une deuxième affaire, Twitter c. Taamneh. Il traite d'une question connexe sur le moment où les plateformes sont légalement responsables de soutenir le terrorisme en vertu de la loi fédérale.
Eric Schnapper, professeur de droit à l'Université de Washington et l'un des avocats représentant les plaignants dans les deux affaires, a déclaré dans une interview que les arguments étaient suffisamment étroits pour ne pas changer de larges pans d'Internet. "L'ensemble du système ne tombe pas en panne", a-t-il déclaré.
Mais Halimah DeLaine Prado, l'avocate générale de Google, a déclaré dans une interview que "toute décision négative dans cette affaire, étroite ou autre, va fondamentalement changer le fonctionnement d'Internet", car elle pourrait entraîner la suppression des algorithmes de recommandation qui sont " intégrale » au web.
Twitter n'a pas répondu à une demande de commentaire.
Les entreprises technologiques surveillent également de près les cas du Texas et de la Floride. Les deux États ont adopté des lois interdisant aux réseaux sociaux de supprimer certains contenus après que Twitter et Facebook ont interdit au président Donald J. Trump à la suite de l'émeute du 6 janvier 2021 au Capitole des États-Unis. La loi du Texas permet aux utilisateurs de poursuivre si une grande plate-forme en ligne supprime leur publication en raison du "point de vue" qu'elle exprime. La loi de Floride sanctionne les plateformes qui interdisent définitivement les comptes d'un candidat à un poste dans l'État.
La salle de briefing de la Maison Blanche lors du discours télévisé du président Donald J. Trump depuis la roseraie le 6 janvier 2021. Crédit... Pete Marovich pour le New York Times
NetChoice et CCIA, des groupes financés par Facebook, Google, Twitter et d'autres entreprises technologiques, ont intenté une action en justice pour bloquer les lois en 2021. Les groupes ont fait valoir que les entreprises avaient le droit constitutionnel de décider du contenu à héberger.
"C'est une façon détournée de punir les entreprises pour avoir exercé les droits du premier amendement avec lesquels d'autres ne sont pas d'accord", a déclaré Chris Marchese, avocat chez NetChoice.
En Floride, un juge fédéral était d'accord avec les groupes industriels, décidant que la loi empiétait sur les droits du premier amendement des plates-formes, et la Cour d'appel des États-Unis pour le 11e circuit [a confirmé la majeure partie de cette décision] (https://www.washingtonpost.com/technology/2022/05/23/florida-social-media- 11ème circuit-décision/). Mais la Cour d'appel des États-Unis pour le cinquième circuit a confirmé la loi du Texas, rejetant "l'idée que les entreprises ont le droit de censurer librement ce que les gens disent".
Cela met la Cour suprême sous pression pour intervenir. Lorsque les tribunaux fédéraux offrent des réponses différentes à la même question, la Cour suprême choisit souvent de régler le différend, a déclaré Jeff Kosseff, professeur agrégé de droit de la cybersécurité à la U.S. Naval Academy.
Une porte-parole du procureur général de Floride, Ashley Moody, a souligné les documents déposés par l'État auprès de la Cour suprême, où il fait valoir que la décision bloquant la loi prive les États du pouvoir "de protéger l'accès de leurs citoyens à l'information". Un porte-parole du procureur général du Texas, Ken Paxton, n'a pas répondu à une demande de commentaire.
Si les juges de la Cour suprême décident d'entendre les contestations, ils pourraient décider de prendre les affaires immédiatement pour le mandat du tribunal se terminant en juin ou pour son prochain mandat, qui s'étend d'octobre à l'été 2024.
"Je pense que nous sommes, en ce moment, dans un endroit où le tribunal est positionné pour rendre un nouveau jugement sur Internet", a déclaré M. Kosseff.