Incidents associés
Cette année, on a l'impression que l'art généré par l'intelligence artificielle est partout. En été, beaucoup d'entre nous ont entré des invites loufoques dans DALL-E Mini (maintenant appelé Craiyon ), produisant une série de neuf images générées par l'IA. Mais plus récemment, il y a eu un boom des applications alimentées par l'IA qui peuvent créer des avatars sympas. MyHeritage AI Time Machine génère des images d'utilisateurs dans des styles et des paramètres historiques, et les filtres AI TikTok sont devenus populaires pour créer des versions animées de personnes. La semaine dernière, "[avatars magiques] (https://twitter.com/search?q=%23magicavatar&src=typed_query)" de Lensa AI a inondé les plateformes de médias sociaux comme Twitter avec des rendus illustratifs et picturaux des portraits des gens, comme s'ils étaient vraiment faits par magie. Ces avatars, créés à l'aide de Stable Diffusion — qui permet à l'IA d'"apprendre" les caractéristiques de quelqu'un à partir des images soumises — ont également ouvert une boîte éthique de vers sur l'application de l'IA. Les gens ont découvert que les "avatars magiques" avaient tendance à sexualiser les femmes et semblaient avoir [de fausses signatures d'artistes sur le coin inférieur] (https://slate.com/technology/2022/12/lensas-a-i-avatars-the-uncomfortable-places-their-magic-comes-from.html), suscitant des questions sur les images qui avaient été utilisé pour former l'IA et d'où ils venaient. Voici ce que vous devez savoir. Qu'est-ce que l'IA Lensa ? ----------------- C'est une application créée par Prisma Labs qui a récemment dépassé le tableau gratuit de l'App Store iOS. Bien qu'elle ait été créée en 2018, l'application est devenue populaire après avoir introduit une fonction "avatar magique" plus tôt ce mois-ci. Les utilisateurs peuvent soumettre 10 à 20 selfies, payer des frais (3,99 $ pour 50 images, 5,99 $ pour 100 et 7,99 $ pour 200), puis recevoir un ensemble d'images générées par l'IA dans une gamme de styles comme "kawaii" ou "fantasy". ” Les "avatars magiques" de l'application ont un style quelque peu étrange, réfractant les ressemblances comme à travers un miroir funhouse. Dans un paquet de 100, au moins quelques-uns des résultats captureront probablement assez bien la photo de l'utilisateur dans le style d'une peinture ou d'un personnage d'anime. Ces images ont inondé Twitter et TikTok. (Polygon a demandé à Prisma Labs une estimation du nombre d'avatars produits, et la société a refusé de répondre.) Des célébrités comme Megan Fox, [Sam Asghari] (https://www.instagram.com/p/ClxcDCdrWNT/) et Chance the Rapper ont même partagé leurs ressemblances créées par Lensa. Comment Lensa crée-t-il ces avatars magiques ? ------------------------------------------ Lensa utilise Stable Diffusion, une modèle d'apprentissage en profondeur source AI, qui s'appuie sur une base de données d'art extraite d'Internet. Cette base de données s'appelle LAION-5B, et elle comprend 5,85 milliards de paires image-texte, filtrées par un [réseau de neurones appelé CLIP](https:// openai.com/blog/clip/) (qui est également open-source). Stable Diffusion a été rendu public le 22 août et Lensa est loin d'être la seule application à utiliser ses capacités de conversion de texte en image. Canva, par exemple, a récemment lancé une fonctionnalité en utilisant l'open- IA source. Une analyse indépendante de 12 millions d'images de l'ensemble de données - un petit pourcentage, même s'il semble massif - a retracé les origines des images sur des plateformes telles que Blogspot, Flickr, DeviantArt, Wikimedia et Pinterest, dont la dernière est la source d'environ la moitié de la collection. Plus inquiétant encore, cet "ensemble de données à grande échelle n'est pas organisé", [indique la section d'avertissement de la page de blog FAQ LAION-5B] (https://laion.ai/blog/laion-5b/). Ou, en termes courants, cette IA a été entraînée sur un tuyau d'incendie d'images Internet pures et sans mélange. Stability AI n'a supprimé que le "contenu illégal" des données de formation de Stable Diffusion, y compris le matériel d'abus sexuel d'enfants, [The Verge a rapporté](https://www.theverge.com/2022/9/15/23340673/ai-image-generation- stable-diffusion-expliqué-éthique-copyright-données). En novembre, Stability AI a apporté quelques modifications qui [ont rendu plus difficile la création d'images NSFW] (https://www.theverge.com/2022/11/24/23476622/ai-image-generator-stable-diffusion-version-2 -nsfw-artistes-changements de données). Cette semaine, Prisma Labs a déclaré à Polygon qu'il avait également "lancé une nouvelle couche de sécurité" qui "vise à lutter contre le contenu NSFW indésirable". La licence de Stable Diffusion indique que les utilisateurs ne peuvent pas l'utiliser pour avoir enfreint la loi, "exploiter, nuire ou tenter d'exploiter ou de nuire à des mineurs", ou pour générer de fausses informations ou dénigrer et harceler les autres (entre autres restrictions). Mais la technologie elle-même peut toujours générer des images en violation de ces termes. Comme The Verge l'a dit, "une fois que quelqu'un a téléchargé Diffusion stable sur leur ordinateur, il n'y a aucune contrainte technique quant à l'utilisation du logiciel. Pourquoi les générateurs d'art IA sont-ils devenus si populaires cette année ? -------------------------------------------------- ---- Bien que cette technologie soit en développement depuis des années, quelques générateurs d'art IA sont entrés en version bêta publique ou sont devenus accessibles au public cette année, comme [Midjourney](https://midjourney.com/home/?callbackUrl=%2Fapp% 2F ), DALL-E (techniquement DALL-E 2, mais les gens l'appellent simplement DALL-E) et Stable Diffusion. Ces formes d'IA générative permettent aux utilisateurs de saisir une chaîne de termes pour créer des images impressionnantes. Certaines d'entre elles sont délicieuses et fantaisistes, comme mettre un Shiba Inu dans un béret. Mais vous pouvez probablement aussi imaginer avec quelle facilité cette technologie pourrait être utilisée pour créer [des deepfakes ou de la pornographie](https://www.theverge.com/2022/9/15/23340673/ai-image-generation-stable-diffusion-explained -éthique-droit d'auteur-données). Il y a aussi un degré de finesse que l'art de l'IA ne semble tout simplement pas pouvoir atteindre – du moins, pas encore. Il a tendance à se débattre avec les doigts - en vouliez-vous 12 ? – et a produit des créations carrément cauchemardesques comme plusieurs têtes et visages cassés . Stable Diffusion, contrairement à DALL-E, Midjourney et Imagen de Google, est open-source et a donc largement proliféré. Midjourney, qui a été créé par une équipe indépendante, est entré en bêta ouverte cet été ; vous pouvez générer 25 images gratuites si vous rejoignez son Discord. DALL-E, créé par OpenAI, a fait ses débuts en avril avant de supprimer sa liste d'attente et d'ouvrir l'accès bêta en septembre, date à laquelle les utilisateurs [ont généré quelque 2 millions d'images par jour](https://www.washingtonpost.com/technology/interactive /2022/artificial-intelligence-images-dall-f/). DALL-E offre aux utilisateurs des crédits mensuels gratuits qui peuvent être utilisés pour générer des images, et vous pouvez payer pour des crédits supplémentaires. N'importe qui peut utiliser Stable Diffusion, pourvu qu'il dispose d'une puissance de traitement adéquate. Il est également, par rapport à ses concurrents, beaucoup plus non filtré — et donc capable d'être utilisé pour faire des images plus offensives. Stability AI, la société à l'origine de Stable Diffusion, a reconnu dans un communiqué que "le modèle peut reproduire certains préjugés sociétaux et produire un contenu dangereux". JeuxServer a contacté Stability AI et mettra à jour cette histoire avec sa réponse. Prisma Labs reconnaît les biais de Stable Diffusion dans sa FAQ également. Lorsque JeuxServer a interrogé Prisma Labs sur l'existence d'un biais dans l'IA générative, nous avons obtenu cette réponse : "Il est crucial de noter que les créateurs du modèle de diffusion stable l'ont formé sur un ensemble important de données non filtrées provenant d'Internet. Ainsi, ni nous, ni Stability AI (créateur du modèle de diffusion stable) ne pourrions consciemment appliquer des biais de représentation. Pour être plus précis, les données non filtrées créées par l'homme et obtenues en ligne ont introduit le modèle dans les préjugés existants de l'humanité. Essentiellement, l'IA tient un miroir de notre société. Quels types de biais apparaissent dans Lensa AI ? --------------------------------------- Un certain nombre de journalistes ont souligné la « magie magique » de Lensa AI avatars » ont tendance à sexualiser les femmes et à angliciser les minorités. Lensa a ajouté de gros seins et [clivage caricatural](https://www. thecut.com/2022/12/ai-avatars-lensa-beauty-boobs.html) aux images de femmes - ainsi que la génération de nus - lorsque de telles images n'étaient pas demandées. Olivia Snow, chercheuse au Center for Critical Internet Inquiry de l'UCLA, a souligné dans Wired que Lensa produisait des images sexualisées même lorsqu'elle [elle soumettait des photos d'elle-même lorsqu'elle était enfant] (https://www.wired.com/story/lensa- intelligence-artificielle-csem). Un journaliste de Jezebel a interrogé Prisma Labs sur les découvertes de Snow ; Prisma Labs a déclaré que Snow avait "violé explicitement et intentionnellement [ses] conditions d'utilisation". Les [conditions d'utilisation] de Lensa (https://prisma-ai.com/terms) interdisent de soumettre des nus et invitent les utilisateurs à soumettre des images d'adultes, "pas d'enfants". L'application invite également les utilisateurs à cliquer sur une case indiquant qu'ils ont 18 ans ou plus avant de créer ces "avatars magiques". > J'ai essayé l'application Lensa AI et pris 20 photos de moi, et je dois dire que j'ai vraiment du mal avec les visages asiatiques. Mes résultats étaient faussés pour être plus asiatiques et je ne suis absolument pas impressionné. pic.twitter.com/WnyLKXQT8K > > — Anisa Sanusi (@studioanisa) [3 décembre 2022](https://twitter.com/studioanisa/status/1598863864879546368? ref_src=twsrc%5Etfw ) Lensa perpétue également les stéréotypes racistes, comme la fétichisation des femmes asiatiques. Un [journaliste asiatique écrivant pour MIT Technology Review](https://www.technologyreview.com/2022/12/12/1064751/the-viral-ai-avatar-app-lensa-undressed-me-without-my-consent /) a détaillé son expérience avec l'application de Lensa en lui donnant un certain nombre d'avatars qui étaient "nus" ou "montraient beaucoup de peau", tandis que ses collègues féminines blanches "obtenaient beaucoup moins d'images sexualisées". TechCrunch a également noté qu'il est assez facile de créer des images NSFW de célébrités simplement en alimentant les images photoshoppées par l'IA. Cela a des implications surprenantes sur la manière dont ces logiciels pourraient être utilisés pour créer du porno de vengeance, par exemple. (Particulièrement préoccupant aussi, car le nombre de revenge porn [les victimes ont grimpé en flèche pendant la pandémie de COVID-19](https://www.washingtonpost.com/lifestyle/style/revenge-porn-nonconsensual-porn/2020/10/28 /603b88f4-dbf1-11ea-b205-ff838e15a9a6_story.html).) Le 13 décembre, Prisma Labs a lancé de nouvelles fonctionnalités visant à lutter contre les images NSFW. Un représentant des communications a indiqué à Polygon un communiqué de presse : "Cela a été réalisable grâce à une enquête approfondie visant à mettre à jour et à modifier plusieurs paramètres du modèle de diffusion stable exploité par l'application. Pour répondre aux récents problèmes de sécurité et améliorer l'expérience globale dans l'application, les développeurs de Prisma Labs se sont assurés de rendre la génération de tels avatars moins probable. En de rares occasions, lorsque le nouvel algorithme NSFW ne parvient pas à fonctionner et à fournir les résultats souhaités, la couche de sécurité suivante entre en jeu pour brouiller les éléments visuels inappropriés et la nudité dans les résultats finaux. L'avez-vous vu en action ? --------------------------- Oui j'ai! Le 13 décembre, j'ai envoyé 19 images à Lensa afin de produire 100 avatars, ce qui m'a coûté 5,99 $. Les images que j'ai choisies présentaient mon visage sous différents angles et éclairages. L'une de ces images montrait mon corps - je portais une robe ample et je prenais une photo dans le miroir. J'ai reçu 100 images en retour, qui offraient une panoplie de traits disséqués sur autant de visages qui finalement ne me ressemblaient pas. Lensa semblait n'avoir aucune idée de ce qu'il fallait faire de mon visage - je suis taïwanais et blanc - créant des images qui ressemblaient à l'Asie de l'Est mais qui, autrement, ressemblaient à de parfaits inconnus, à l'exception d'une bizarrerie particulière ou d'une autre, comme ma mâchoire ou la forme de mes yeux. Certaines images ressemblaient simplement à des femmes blanches, Lensa me donnant même les yeux bleus - même si j'ai les yeux marrons, et aucune des images que j'ai soumises ne me montrait les yeux bleus. Ces modifications se sont regroupées autour de «catégories» particulières délimitées par l'application. Les images pour "kawaii" semblaient plus asiatiques, quelques-unes générant un corps mince. Sous "lumière" et "fantaisie", les résultats semblaient plus blancs. Certaines des images du pack "irisé" me faisaient ressembler à un androïde - je serais intéressé à comparer mes résultats à ceux des autres, car cela reflète un trope où [les femmes asiatiques dans la science-fiction] (https://commons. princeton.edu/gendersexualityandmedia/2019/01/14/final-project-dossier-the-technologiized-racialized-gendered-other/) ont tendance à être décrits comme des robots plus qu'ils n'existent en tant qu'humains. Une image de l'ensemble "cosmique" m'a donné un clivage aléatoire. Heureusement, aucune des images n'était nue. Pourquoi ces générateurs d'images IA sont-ils racistes et misogynes ? -------------------------------------------------- -------- Cela dépend de la façon dont ces IA sont "formées". L'IA reflétera ce qu'elle a "appris" grâce à l'ensemble de données qu'elle a alimenté, qu'il s'agisse d'un style artistique magnifique ou d'un biais sociétal grotesque. Une étude menée en juin 2022 par des chercheurs du Georgia Institute of Technology et de l'Université Johns Hopkins, entre autres, a révélé que les robots entraînés par le réseau de neurones CLIP "montre définitivement des robots exécutant des stéréotypes toxiques" concernant le sexe et la race. Ils étaient également « moins susceptibles de reconnaître les femmes et les personnes de couleur ». Le robot choisissait plus fréquemment le visage d'un homme noir lorsqu'il était invité par «criminel», par exemple, et sélectionnait des femmes noires et des femmes latines lorsqu'il était invité à «femme au foyer». Le racisme dans l'IA n'est pas nouveau, mais pendant des années, il a été ressenti plus comme de la science-fiction que dans la réalité ; cela devient de plus en plus pertinent à mesure que l'art généré par l'IA est "arrivé" dans la mesure où vous pouvez payer des frais pour en profiter vous-même. Et ce n'est pas seulement la diffusion stable. DALL-E génère également des images qui renforcent les stéréotypes misogynes et racistes. La saisie de «infirmière» donne des images de femmes, tandis que «PDG» donne principalement des images d'hommes blancs. OpenAI en est conscient. Un article de blog OpenAI, publié en juillet, détaillait une « nouvelle technique » pour « refléter la diversité de la population mondiale. OpenAI bloque également certains mots qui donneraient des réponses haineuses, comme le mot "tir". La section "Risks and Limitations" du Github d'OpenAI, mise à jour en avril 2022, donne un aperçu du obstacles qui sont venus avec la formation de l'IA. Le «contenu sexuel et violent graphique» a été filtré de l'ensemble de données de formation, mais cela a également réduit le nombre «d'images générées de femmes en général». En termes simples, se débarrasser de la violence sexuelle signifiait que l'IA créait moins d'images de femmes. "Le biais est un énorme problème à l'échelle de l'industrie auquel personne n'a de réponse efficace et infaillible", Miles Brundage, responsable de la recherche sur les politiques chez OpenAI, [told Vox in April](https://www.vox.com/future -parfait/23023538/ai-dalle-2-openai-bias-gpt-3-incentives). Même Craiyon (née DALL-E Mini) a une section limitations et préjugés dans sa FAQ notant qu'elle pourrait "renforcer ou exacerber les préjugés sociétaux". Il note en outre "parce que le modèle a été formé sur des données non filtrées provenant d'Internet, il peut générer des images contenant des stéréotypes nuisibles". Et que pensent les artistes de Lensa ? ----------------------------------------- Les artistes ont exprimé leur inquiétude quant à la formation par Stable Diffusion de son modèle d'IA avec de l'art sur Internet – dont certains sont presque certainement protégés par le droit d'auteur, compte tenu de l'ampleur de ce qui a été gratté – sans demander la permission à ces artistes. Il n'y a pas vraiment de moyen pour les artistes de se retirer actuellement. Certains des "avatars magiques" de Lensa semblent avoir la signature d'un artiste dans le coin inférieur, ce qui [a suscité un débat](https://slate.com/technology/2022/12/lensas-a-i-avatars-the-uncomfortable-places- leur-magie-vient-de.html) sur Twitter. Bien que les lettres elles-mêmes aient tendance à sembler incohérentes, après un examen attentif, cela indique que l'IA a été formée sur des images qui ont des signatures d'artistes. (Prisma Labs reconnaît ces signatures fantômes dans sa FAQ Lensa.) L'utilisation du site "Have I Been Trained" permet aux utilisateurs de rechercher si une image a été récupérée dans les données LAION-5B. Positionner. Certaines personnes ont trouvé des images d'elles-mêmes dans l'ensemble de données, sans [comprendre comment elles se sont retrouvées là](https://arstechnica.com/information-technology/2022/09/artist-finds-private-medical-record-photos- in-popular-ai-training-data-set/), pour ajouter ce nœud gordien éthique. > Je les recadre pour des raisons de confidentialité/parce que je n'essaie pas d'appeler qui que ce soit. Ce sont tous des portraits de Lensa où les restes mutilés de la signature d'un artiste sont encore visibles. C'est le reste de la signature de l'un des multiples artistes qu'il a volé. > > Un https://t.co/0lS4WHmQfW pic.twitter.com/7GfDXZ22s1 > > — Lauryn Ipsum (@LaurynIpsum) 6 décembre 2022 Dans d'autres réactions, les gens ont dit que [l'IA pourrait remplacer les artistes](https://techcrunch .com/2022/12/05/lensa-ai-app-store-magic-avatars-artists/) dans une variété de domaines. En septembre, l'art créé par Midjourney a remporté la première place à l'amende de la Colorado State Fair concours artistique. En juin, DALL-E a fait une couverture de magazine pour Cosmopolitan. Certains ont également fait valoir que trouver la bonne requête d'entrée pour un générateur d'art IA, qui peut être un processus long et itératif, devrait être considéré comme sa propre forme de création artistique. Des exemples d'IA reproduisant l'esthétique artistique se répandent déjà sur Internet. Polonais [artiste numérique Greg Rutkowski] (https://www.technologyreview.com/2022/09/16/1059598/this-artist-is-dominating-ai-generated-art-and-hes-not-happy-about- L'œuvre d'it/) est devenue un style dominant sur lequel bon nombre de ces images générées par l'IA semblent être basées. Les utilisateurs de Twitter ont alimenté l'invite "in the style of Wes Anderson" pour créer des cadres d'autres films dans le style twee signature du réalisateur. Des réalisateurs comme Guillermo del Toro et Hayao Miyazaki (ce dernier en 2016, lorsque la technologie était beaucoup plus émergente) se sont prononcés contre l'utilisation de l'IA dans le cinéma, les qualifiant tous deux de "[une insulte à la vie elle-même](https://www. polygon.com/23507256/guillermo-del-toro-ai-art-midjourney). Pendant ce temps, certains artistes ont déjà cité Midjourney comme essentiel à leur processus créatif, en particulier des designers qui, autrement, ne pourraient pas se permettre les premières maquettes – ou des professionnels comme les architectes d'intérieur qui l'ont utilisé pour rendre à quoi pourrait ressembler une pièce nouvellement décorée. Il existe déjà un exemple frappant d'art de l'IA dans les jeux vidéo. High on Life, créé par le créateur de Rick et Morty Justin Roiland, utilise l'art de l'IA créé par Midjourney pour les "touches finales", Roiland [confirmé à Sky News](https://news.sky.com/story/high-on-life -rick-and-morty-co-créateur-de-son-nouveau-jeu-de-tir-où-les-canons-répondent-12766710). Bien qu'il n'ait pas précisé à quoi il servait, les Redditors ont souligné que les affiches du jeu semblent être AI- généré. (Zoomez et le texte semble charabia.) Il n'est pas difficile d'imaginer comment l'art de l'IA pourrait déplacer les artistes de l'environnement et de la texture, par exemple, lorsqu'il est gratuit - ou, du moins, bon marché - et que le travail humain ne l'est pas. Pour sa part, Prisma Labs a fourni cette citation extraordinairement optimiste à JeuxServer sur l'avenir de l'IA et de l'art généré par l'IA : "" Démocratisation de l'accès" à une technologie de pointe comme Stable Diffusion, qui est désormais conditionnée sous la forme d'un fonctionnalité de l'application - est une étape assez incroyable. Ce qui n'était autrefois disponible que pour les utilisateurs avertis est maintenant disponible pour que tout le monde puisse en profiter. Aucune compétence particulière n'est requise. À mesure que la technologie de l'IA devient de plus en plus sophistiquée et accessible, il est probable que nous verrons des outils et des fonctionnalités alimentés par l'IA largement intégrés dans les applications destinées aux consommateurs, rendant chaque application plus puissante, personnalisable et conviviale. Nous aimerions imaginer que l'IA pourrait également s'intégrer davantage dans notre vie quotidienne, de plus en plus de consommateurs choisissant d'utiliser des services alimentés par l'IA pour améliorer leurs expériences et, en fin de compte, rendre la vie un peu plus facile et moins stressante. Dans l'ensemble, nous pensons que l'avenir des applications alimentées par l'IA s'annonce brillant et plein de potentiel. » Il est déjà assez difficile, sur Internet, de distinguer les faits de la fiction. Il est également déjà difficile de gagner sa vie dans un domaine créatif, car la concurrence et l'inflation font des ravages dans l'industrie. L'IA générative ne fera que rendre les choses plus difficiles. Indépendamment de la manière dont cette technologie est appliquée - et du degré d'impact sur les artistes - cela semble certain.