Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3199

Incidents associés

Incident 5613 Rapports
OpenAI Alleged by Lawsuit Violated Users' Privacy Rights by Training AI on Private Info without Informed Consent

Loading...
Plainte en recours collectif
clarksonlawfirm.com · 2023

Introduction

Le 19 octobre 2016, Stephen Hawking, professeur de physique théorique à l'Université de Cambridge, a prédit : « Le succès dans la création de l'IA pourrait être le plus grand événement de l'histoire de notre civilisation. Mais ce pourrait aussi être le dernier, à moins que nous n'apprenions à éviter les risques. Le professeur Hawking a décrit un avenir dans lequel l'humanité choisirait soit d'exploiter les énormes avantages potentiels, soit de succomber aux dangers de l'IA, soulignant que "la montée en puissance d'une IA puissante sera soit la meilleure, soit la pire chose qui puisse arriver à l'humanité".

L'avenir prédit par le professeur Hawking est arrivé dans seulement sept petites années. En utilisant des informations personnelles volées et détournées à grande échelle, les défendeurs ont créé une IA puissante et extrêmement rentable et l'ont diffusée dans le monde sans se soucier des risques. Ce faisant, les accusés ont créé une course aux armements contre l'IA dans laquelle les accusés et d'autres grandes entreprises technologiques embarquent la société dans un avion qui, selon plus de la moitié des experts en IA interrogés, a au moins 10 % de chances de s'écraser et de tuer tout le monde à bord. L'humanité est maintenant confrontée aux deux routes givrées que le professeur Hawking a prédites que nous devrions choisir entre : l'une mène à la durabilité, à la sécurité et à la prospérité ; l'autre conduit à l'effondrement de la civilisation.

Ce recours collectif découle de la conduite illégale et préjudiciable des défendeurs dans le développement, la commercialisation et l'exploitation de leurs produits d'IA, y compris ChatGPT-3.5, ChatGPT-4.0, Dall-E et Vall-E (les « Produits ») , qui utilisent des informations privées volées, y compris des informations personnellement identifiables, de centaines de millions d'internautes, y compris des enfants de tous âges, sans leur consentement éclairé ou leur connaissance. En outre, les défendeurs continuent de collecter et de fournir illégalement des données personnelles supplémentaires de millions de consommateurs sans méfiance dans le monde, bien au-delà de toute utilisation raisonnablement autorisée, afin de continuer à développer et à former les produits.

Le mépris des accusés pour les lois sur la vie privée n'a d'égal que leur mépris pour le risque potentiellement catastrophique pour l'humanité. Emblématique à la fois du risque ultime – et du mépris ouvert des défendeurs – est cette déclaration du PDG de l'accusé OpenAI, Sam Altman : « L'IA conduira probablement à la fin du monde, mais en attendant, il y aura de grandes entreprises.

Les produits des défendeurs et la technologie sur laquelle ils sont construits ont sans aucun doute le potentiel de faire beaucoup de bien dans le monde, comme aider la recherche scientifique vitale et inaugurer des découvertes qui peuvent améliorer la vie des Américains ordinaires. Avec ce potentiel à l'esprit, la défenderesse OpenAI a été fondée à l'origine en tant qu'organisation de recherche à but non lucratif avec une seule mission : créer et garantir que l'intelligence artificielle serait utilisée au profit de l'humanité. Mais en 2019, OpenAI s'est brusquement restructurée, développant une entreprise à but lucratif qui poursuivrait des opportunités commerciales d'une ampleur stupéfiante.

À la suite de la restructuration, OpenAI a abandonné ses objectifs et principes d'origine, choisissant plutôt de rechercher le profit au détriment de la confidentialité, de la sécurité et de l'éthique. Il a doublé sa stratégie pour récolter secrètement d'énormes quantités de données personnelles sur Internet, y compris des informations privées et des conversations privées, des données médicales, des informations sur les enfants - essentiellement toutes les données échangées sur Internet qu'il pourrait prendre - sans en avertir les propriétaires. ou les utilisateurs de ces données, encore moins avec la permission de qui que ce soit.

Sans ce vol sans précédent d'informations privées et protégées par le droit d'auteur appartenant à de vraies personnes, communiquées à des communautés uniques, à des fins spécifiques, ciblant des publics spécifiques, les Produits ne seraient pas l'entreprise de plusieurs milliards de dollars qu'ils sont aujourd'hui. OpenAI a utilisé les données volées pour former et développer les produits à l'aide de grands modèles de langage (LLM) et d'algorithmes de langage approfondis pour analyser et générer un langage de type humain pouvant être utilisé pour un large éventail d'applications, notamment les chatbots, la traduction linguistique, la génération de texte, et plus. Les capacités sophistiquées de traitement du langage naturel des produits des défendeurs leur permettent, entre autres, de mener des conversations humaines avec les utilisateurs, de répondre aux questions, de fournir des informations, de générer le texte suivant à la demande, de créer de l'art et de se connecter émotionnellement avec les gens, tout comme un "vrai" humain.

Une fois formés sur les données volées, les défendeurs ont vu le potentiel de profit immédiat et ont précipité les produits sur le marché sans mettre en œuvre de garanties ou de contrôles appropriés pour s'assurer qu'ils ne produiraient pas ou ne soutiendraient pas de contenu et de conduite nuisibles ou malveillants qui pourraient enfreindre davantage la loi, enfreindre les droits et mettre des vies en danger. Sans ces garanties, les Produits ont déjà démontré leur capacité à nuire aux humains, de manière réelle.

Un nombre non négligeable d'experts affirment que les risques pour l'humanité présentés par les produits l'emportent même sur ceux du développement d'armes nucléaires par le projet Manhattan. Historiquement, la diffusion incontrôlée de nouvelles technologies sans garanties et réglementations appropriées a provoqué le chaos. Encore une fois, nous sommes confrontés à des risques imminents et déraisonnables de voir le tissu même de notre société s'effondrer, aux mains d'entreprises à but lucratif de plusieurs milliards de dollars.

Des entreprises puissantes, armées de capacités technologiques inégalées et hautement concentrées, se sont imprudemment précipitées pour libérer la technologie de l'IA sans tenir compte du risque catastrophique pour l'humanité au nom du "progrès technologique". Comme l’a noté la National Security Commission dans son rapport final sur l’IA, « le gouvernement américain est loin d’être ‘prêt pour l’IA’ ».

Les experts estiment que sans intervention juridique immédiate, cela conduira à des scénarios où l'IA peut agir contre les intérêts et les valeurs humaines, exploiter les êtres humains8 sans tenir compte de leur bien-être ou de leur consentement, et/ou même décider d'éliminer l'espèce humaine comme une menace pour son buts. Comme l'a dit Geoffrey Everest Hinton - la figure séminale du développement de la technologie sur laquelle les produits fonctionnent - : "La sonnette d'alarme que je sonne a à voir avec la menace existentielle qu'ils prennent le contrôle... J'avais l'habitude de penser que c'était un loin, mais maintenant je pense que c'est sérieux et assez proche. Il n'est pas seul.

Alors que les inconvénients sont presque inimaginables, les avantages sont tout aussi bouleversants. La technologie du défendeur OpenAI est déjà évaluée à des dizaines de milliards de dollars, et sa portée dans toutes les industries publiques et privées se poursuit à un rythme soutenu. Les produits n'ont atteint le niveau de sophistication qu'ils ont aujourd'hui qu'en raison de la formation sur les données volées et détournées, et les défendeurs continuent de détourner des données, en les grattant sur Internet sans préavis ni consentement, ainsi qu'en prenant des informations personnelles sur les plus de 100 millions de produits. utilisateurs enregistrés à leur insu et sans leur consentement.

De plus, les produits sont de plus en plus intégrés dans une liste sans cesse croissante d'applications et de sites Web, via des API ou des plug-ins. Grâce à l'intégration de l'IA des défendeurs dans presque tous les produits et secteurs possibles, les défendeurs ont créé et continuent de créer une dépendance économique au sein de notre société, en déployant la technologie directement entre les mains de la société et en l'intégrant dans l'infrastructure fondamentale le plus rapidement possible. Comme l'ont posé les cofondateurs du Center for Humane Technology, Tristan Harris et Aza Raskin, dans leur critique soigneusement élaborée du déploiement rapide de l'IA : "Pensez-vous qu'une fois que [ces industries] découvriront un problème qu'ils [vont] simplement retirer ou le retirer de la société ? Non, de plus en plus, le gouvernement, les militaires [et autres], construisent rapidement leurs prochains systèmes et lèvent du capital-risque pour construire au-dessus de cette couche de la société… Ce n'est pas le tester avec la société, c'est embarquer l'humanité sur un avion non testé… C'est une chose de tester, c'en est une autre de créer une dépendance économique.”

Le responsable de l'équipe d'alignement et de sécurité d'Open AI reconnaît directement ces risques, postulant : « Avant de nous précipiter pour intégrer profondément de grands modèles linguistiques partout dans l'économie, pouvons-nous nous arrêter et réfléchir s'il est sage de le faire ? » C'est une technologie assez immature, et nous ne comprenons pas comment cela fonctionne. Si nous ne faisons pas attention, nous nous exposons à de nombreux échecs corrélés. »

Un tel déploiement agressif de l'IA des défendeurs est imprudent, sans les garanties appropriées en place. "Peu importe la taille du gratte-ciel d'avantages que l'IA assemble pour nous... si ces avantages atterrissent dans une société qui ne fonctionne plus, parce que les banques ont été piratées, et que la voix des gens a été usurpée, et que des cyberattaques se sont produites partout et que les gens ne le font pas. t savoir ce qui est vrai [… ou] à quoi faire confiance, […] combien de ces avantages peuvent être réalisés dans un société dysfonctionnelle ? »

Grâce à leurs produits d'intelligence artificielle, intégrés à tous les secteurs, les défendeurs collectent, stockent, suivent, partagent et divulguent des informations privées de millions d'utilisateurs ("utilisateurs"), y compris : (1) tous les détails saisis dans les produits; (2) les informations de compte saisies par les utilisateurs lors de leur inscription ; (3) nom ; (4) coordonnées ; (5) identifiants de connexion ; (6) e-mails ; (7) informations de paiement pour les utilisateurs payants ; (8) relevés de transactions ; (9) identifier les données extraites des appareils et des navigateurs des utilisateurs, telles que les adresses IP et l'emplacement, y compris la géolocalisation des utilisateurs ; (10) informations sur les réseaux sociaux ; (11) données du journal de discussion ; (12) données d'utilisation ; (13) analyses ; (14) cookies ; (15) frappes au clavier ; et (16) les recherches tapées, ainsi que d'autres données d'activité en ligne. Les défendeurs, par le biais des produits, obtiennent illégalement l'accès à ces informations et les interceptent auprès des utilisateurs individuels d'applications et d'appareils qui ont intégré ChatGPT-4, y compris, mais sans s'y limiter, les emplacements des utilisateurs et les données liées aux images obtenues via Snapchat, les informations financières des utilisateurs via Stripe , les goûts et préférences musicaux via Spotify, les modèles d'utilisateurs et l'analyse des conversations privées via Slack et Microsoft Teams, et même des informations de santé privées obtenues via la gestion de portails patients tels que MonGraphique.

Toutes ces informations personnelles sont capturées en temps réel. Avec le grattage par les accusés de nos empreintes numériques - commentaires, conversations que nous avons eues en ligne hier, ainsi qu'il y a 15 ans - les accusés ont maintenant suffisamment d'informations pour créer nos clones numériques, y compris la capacité de reproduire notre voix et notre ressemblance et de prédire et de manipuler notre prochaine étape en utilisant la technologie sur laquelle les produits ont été construits. Ils peuvent également détourner nos compétences et favoriser notre propre obsolescence professionnelle. Cela anéantirait la vie privée telle que nous la connaissons et soulignerait l'importance de la vie privée, de la propriété et des autres droits légaux que ce procès cherche à faire valoir.

Les défendeurs doivent non seulement être empêchés de violer en permanence la vie privée et les droits de propriété de millions de personnes, mais ils doivent également être tenus de prendre des mesures immédiates pour mettre en œuvre des garanties et des réglementations appropriées pour les produits, leurs utilisateurs et l'ensemble de la société, telles que :

(i) Transparence : OpenAI doit ouvrir la « boîte noire » pour divulguer clairement et précisément les données qu'elle collecte, y compris où et auprès de qui, dans des documents de politique clairs et visibles qui expliquent clairement comment ces informations doivent être collectées. être stocké, manipulé, protégé et utilisé ;

(ii) Responsabilité : les développeurs de ChatGPT et des autres produits d'IA doivent être responsables des actions et des résultats du produit et interdits de déploiement commercial ultérieur en l'absence de la capacité des produits à suivre un code de principes et de directives éthiques humains et le respect des valeurs et des droits humains, et jusqu'à ce que les Plaignants et les Membres du groupe soient équitablement indemnisés pour les données volées dont dépendent les Produits ;

(iii) Control : les défendeurs doivent autoriser les utilisateurs du produit et les internautes ordinaires à se retirer de toute collecte de données et ils doivent autrement arrêter la prise illégale de données sur Internet, supprimer (ou compenser) toutes les données mal acquises, ou les algorithmes qui ont été construits sur les données volées, et avant tout autre déploiement commercial, des mesures de sécurité technologiques doivent être ajoutées aux Produits qui empêcheront la technologie de dépasser l'intelligence humaine et de nuire aux autres.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd