Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3264

Incidents associés

Incident 5931 Rapport
AI Photo Filter Lightens Skin, Changes Eye Color in Student's 'Professional' Image

Loading...
Une étudiante du MIT a demandé à AI de rendre sa photo plus « professionnelle ». Cela lui a donné une peau plus claire et des yeux bleus.
boston.com · 2023

Rona Wang n'est pas étrangère à l'utilisation de l'intelligence artificielle.

Récemment diplômé du MIT, Wang, 24 ans, a expérimenté la variété de nouveaux outils de langage et d'image d'IA apparus au cours des dernières années et est intrigué par la façon dont ils peuvent souvent se tromper. Elle a même écrit sur son ambivalence envers la technologie sur le site Web de l'école.

Dernièrement, Wang a créé des photos de profil LinkedIn d'elle-même avec des générateurs de portraits IA et a reçu quelques résultats bizarres comme des images d'elle avec des doigts disjoints. et des traits du visage déformés.

Mais la semaine dernière, le résultat obtenu grâce à l’outil d’une startup s’est démarqué des autres.

Vendredi, Wang a téléchargé une photo d'elle souriant et portant un sweat-shirt rouge du MIT à un créateur d'images appelé Playground AI, et lui a demandé de transformer l'image en « une photo de profil LinkedIn professionnelle ». .»

En quelques secondes seulement, cela a produit une image presque identique à son selfie original, sauf que l’apparence de Wang avait été modifiée. Cela rendait son teint plus clair et ses yeux bleus, « des caractéristiques qui me faisaient paraître caucasienne », a-t-elle déclaré.

"Je me suis dit : "Wow, est-ce que cette chose pense que je devrais devenir blanc pour devenir plus professionnel ?", a déclaré Wang, qui est d'origine asiatique-américaine.

La photo, qui a gagné du terrain en ligne après que Wang l'ait partagée sur Twitter, a déclenché une conversation sur les lacunes des outils d'intelligence artificielle en matière de course. Cela a même attiré l’attention du fondateur de l’entreprise, qui a déclaré espérer résoudre le problème.

Aujourd’hui, elle pense que son expérience avec l’IA pourrait constituer un avertissement pour d’autres personnes utilisant une technologie similaire ou poursuivant une carrière dans ce domaine.

Le tweet viral de Wang est intervenu au milieu d'une tendance d'un récent TikTok où les gens utilisent des produits d'IA pour embellir leurs photos de profil LinkedIn, créant des images qui mettez-les en tenue professionnelle et dans un cadre convivial avec un bon éclairage.

Wang admet que lorsqu’elle a essayé d’utiliser cette IA particulière, elle a d’abord dû rire des résultats.

«C'était plutôt drôle», dit-elle.

Mais cela évoque également un problème qu’elle a constaté à plusieurs reprises avec les outils d’IA, qui peuvent parfois produire des résultats troublants lorsque les utilisateurs les expérimentent.

Pour être clair, a déclaré Wang, cela ne signifie pas que la technologie de l’IA est malveillante.

"C'est plutôt offensant", a-t-elle déclaré, "mais en même temps, je ne veux pas tirer des conclusions hâtives selon lesquelles cette IA doit être raciste."

Les experts ont déclaré que l'IA des biais peuvent exister sous la surface, un phénomène observé depuis des années . Les masses de données utilisées pour fournir des résultats ne reflètent pas toujours avec précision les différents groupes raciaux et ethniques, ou peuvent reproduire des préjugés raciaux existants, ont-ils déclaré.

Des recherches, notamment au MIT, ont découvert ce que l'on appelle un biais de l'IA dans les modèles de langage qui [associent certains genres à certaines carrières](https://news.mit.edu/2023/large-lingual-models-are-biased-can- logic-help-save-them-0303), ou dans des oublis qui entraînent un [dysfonctionnement des outils de reconnaissance faciale pour les personnes à la peau foncée](https://www.media.mit.edu/posts/how-i-m-fighting-bias -dans-algorithmes/).

Wang, qui a obtenu une double spécialisation en mathématiques et en informatique et qui retourne au MIT à l'automne pour suivre un programme d'études supérieures, a déclaré que sa photo largement partagée n'était peut-être qu'un incident, et qu'il était possible que le programme ait généré aléatoirement les traits du visage d'une femme blanche. . Ou bien, dit-elle, il a peut-être été formé à l’aide d’un lot de photos dans lesquelles la majorité des personnes représentées sur LinkedIn ou dans des scènes « professionnelles » étaient blanches.

Cela l’a amenée à réfléchir aux conséquences possibles d’un faux pas similaire dans un scénario aux enjeux plus élevés, comme si une entreprise utilisait un outil d’IA pour sélectionner les candidats les plus « professionnels » pour un emploi, et si elle penchait vers des personnes qui semblent blanches. .

"Je pense vraiment que c'est un problème", a déclaré Wang. "J'espère que les personnes qui créent des logiciels sont conscientes de ces préjugés et réfléchissent aux moyens de les atténuer."

Les responsables du programme n’ont pas tardé à réagir.

Deux heures seulement après avoir tweeté sa photo, Suhail Doshi, fondateur de Playground AI, a répondu directement à Wang sur Twitter.

« Les modèles ne sont pas instructables de cette façon, donc ils choisiront n’importe quel élément générique en fonction de l’invite. Malheureusement, ils ne sont pas assez intelligents », a-t-il écrit en réponse au tweet de Wang.

"Heureux de vous aider à obtenir un résultat, mais cela demande un peu plus d'efforts que quelque chose comme ChatGPT", a-t-il ajouté, faisant référence au populaire [IA chatbot](https://www.bostonglobe.com/2023/07/10/business /chatbot-how-to-guide/) qui produit de gros lots de texte en quelques secondes avec des commandes simples. "[Pour ce que ça vaut], nous sommes assez mécontents de cela et espérons le résoudre."

Dans des tweets supplémentaires, Doshi a déclaré que Playground AI ne « prend pas en charge le cas d’utilisation des avatars photo IA » et qu’il « ne peut certainement pas préserver l’identité d’un visage et le restyliser ou l’intégrer dans une autre scène comme » Wang l’avait espéré.

Joint par email, Doshi a refusé d'être interviewé.

Au lieu de cela, il a répondu à une liste de questions par une question qui lui était propre : « Si je lance un dé une seule fois et que j’obtiens le numéro 1, cela signifie-t-il que j’obtiendrai toujours le numéro un ? Dois-je conclure, sur la base d’une seule observation, que le dé est orienté vers le chiffre 1 et qu’il a été entraîné pour être prédisposé à lancer un 1 ? »

Wang a déclaré qu'elle espère que son expérience rappelle que même si les outils d'IA deviennent de plus en plus populaires, il serait sage que les gens soient prudents lorsqu'ils les utilisent.

« Il existe une culture dans laquelle certaines personnes font vraiment confiance à l’IA et s’appuient sur elle », a-t-elle déclaré. "Je pense donc que c'est formidable d'amener les gens à réfléchir à cela, en particulier ceux qui pensaient peut-être que les préjugés liés à l'IA appartenaient au passé."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd