Incidents associés

En décembre, nos flux ont commencé à être inondés d'images générées par l'IA de nos amis. Grâce à l'application Lensa AI. Elle est rapidement devenue la meilleure application photo de l'[app store] d'Apple (https://www.theskimm.com/wellness/8-apps-thatll-make-you-happier) : une analyse a révélé que plus de 20 millions de personnes avaient déjà téléchargé. Mais certaines personnes ont l'impression que les photos ne représentent pas les gens avec précision. D'une manière problématique. Plus précisément parce que le générateur d'images d'IA semble utiliser des stéréotypes racistes et sexistes.
Tout cela fait apparaître un côté sombre de la technologie de l'IA. Pour aller au fond de la polémique autour de ces images, notre équipe de podcast "Skimm This" s'est entretenue avec [Ina Fried](https:// www.axios.com/authors/ina), correspondant technologique en chef pour Axios, à propos des images d'IA prenant d'assaut les médias sociaux.
Comment fonctionne un générateur d'images AI ?
Nous utiliserons l'application Lensa AI comme exemple principal ici. Après avoir téléchargé selfies et payé des frais de service de 4 $, l'application génère des dizaines d'images artistiques dans différents styles et paramètres, avec vous comme star. Glamour, non ?
Mais il y a eu des questions sur les images que les utilisateurs récupèrent. En plus des inquiétudes concernant les images générées par l'IA utilisant du matériel volé aux artistes, les gens ont partagé que leurs avatars ont [des seins plus gros et une taille amincie] (https://twitter.com/TaylorLorenz/status/1599515902558744576?ref_src=twsrc% 5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1599516605163409409%7Ctwgr%5E096d2c6f4d9d8ab75fb0b0f5061752225cb1cd11%7Ctwcon%5Es2_&ref_url=https%3A%2F%2Fcdn.embedly.com%2Fwidgets%2Fmedia.html%3Ftype%3Dtext2Fhtmlkey%3Da19fcc184b9711e1b4764040d3dc5c07schema%3Dtwitterurl%3Dhttps3A%2F%2Ftwitter. com%2Fbrooke%2Fstatus%2F1599516605163409409image%3Dhttps3A%2F%2Fi.embed.ly%2F1%2Fimage3Furl3Dhttps253A252F252Fabs.twimg.com252Ferrors252Flogo46x38.png26key3Da19fcc184b9711e1b4764040d3dc5c07), according to [The New York Times.](https://www.nytimes.com/2022 /12/07/style/lensa-ai-selfies.html) Certains ont même dit que l'application avait généré [des photos nues d'eux](https://www.businessinsider.com/lensa-ai-photo-app-generating-nsfw- images-sans-invite-2022-12). Et certains utilisateurs noirs ont trouvé que l'application [éclaircissait leur peau] (https://twitter.com/feministnoire/status/1599318086242689024).
Fried dit que nous ne devrions pas être surpris que l'application génère ce genre d'images. "Cela commence à partir du moment où vous cliquez sur ce bouton qui dit femme, homme ou autre", a-t-elle déclaré. "Il fait maintenant un tas d'hypothèses genrées."
Fried souligne également que ces hypothèses proviennent de [préjugés] humains (https://hbr.org/2019/10/what-do-we-do-about-the-biases-in-ai). "Nous avons des préjugés dans notre société, donc les données qui entraînent ces systèmes sont biaisées", a-t-elle déclaré. "Nous devons corriger ces deux choses."
Mais maintenant, avec cette dernière tendance, cette conversation a atteint un public plus large. Ce que Fried dit est une bonne chose. "C'est vraiment important maintenant… quand nous parlons encore de choses relativement insignifiantes comme un éditeur de photos, que nous comprenions les préjugés", a-t-elle déclaré. "Que nous apprenions vraiment à comprendre pourquoi les systèmes prennent ces décisions et à les corriger."
Peut-être que je vais transmettre les images générées par l'IA. Puis-je faire autre chose ?
Call out the bias, a déclaré Fried. Parce que la technologie de l'IA a tant d'applications différentes, des applications photo comme Lensa [au système de caution] (https://www.wired.com/story/algorithms-supposed-fix-bail-system-they-havent/). «Je pense qu'il est vraiment important que nous élevions les gens qui disent:« Hé, cela a éclairci ma peau. Cela m'a mis dans une représentation stéréotypée. "Nous sommes à ce stade embryonnaire de l'IA où nous pouvons dire, c'est bien et ce n'est pas bien", a déclaré Fried.
Si vous êtes curieux et que vous voulez voir votre avatar, Fried dit qu'il existe des moyens d'utiliser la technologie de l'IA de manière plus intelligente et plus sûre. "Faites des recherches sur la politique de confidentialité" pour savoir ce qu'une entreprise peut faire de vos photos, dit-elle. Dans certains cas, ils peuvent être utilisés pour entraîner un algorithme de reconnaissance faciale. "Alors parfois, cela ne vous fait rien de mal individuellement, mais cela peut faire quelque chose de collectif avec lequel vous n'êtes pas d'accord", a-t-elle déclaré.
leSkimm
La technologie de l'IA se développe rapidement - dans plus de domaines de notre vie que nous ne le pensons. Et comme la société, elle est malheureusement inondée de toutes sortes de préjugés. Ce qui peut perpétuer les stéréotypes racistes et sexistes. Pas d'ombre à ceux qui ont déjà essayé l'application ou qui envisagent encore de le faire. Mais regardez peut-être de plus près les images générées par l'application avant de les partager.