Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2224

Incidents associés

Incident 3856 Rapports
Canadian Police's Release of Suspect's AI-Generated Facial Photo Reportedly Reinforced Racial Profiling

Loading...
Les flics sont obligés de s'excuser pour l'IA qui a créé une image suspecte "raciste" à partir de l'ADN
the-sun.com · 2022

Alberta, la section canadienne d'Edmonton Police (EPS) a partagé l'image générée par l'IA sur [Twitter](https://www.the-sun. com/topic/twitter/) et a révélé comment le "phénotypage ADN" de type science-fiction peut être utilisé pour prédire à quoi ressemble un suspect.

La police a dû supprimer l'image controversée générée par l'IACrédit: Getty

Cependant, le service de police a dû supprimer rapidement l'image lorsqu'elle a déclenché un tollé en ligne.

Il a ensuite publié une déclaration et s'est excusé pour l'offense causée.

L'image générée par l'IA a été critiquée pour son inexactitude et a même été qualifiée de raciste par certains utilisateurs de Twitter en colère.

Maître de conférences en génétique à l'University College de Londres, Dr. Adam Rutherford, a répondu en tweetant : "Ici, généticien. Vous ne pouvez pas faire de profils faciaux ou de prédictions précises de pigmentation à partir de l'ADN, et c'est de l'huile de serpent dangereuse."

Une autre personne a tweeté: "C'est pourquoi nous voulons que la police soit supprimée. Vous gaspillez de l'argent en astrologie raciste pour les flics."

De nombreux autres tweets ont suggéré que l'IA était raciste car elle créait l'image d'un homme noir.

L'IA a également été critiquée pour ne pas être en mesure de déterminer avec précision des éléments de base tels que l'âge, les poils du visage et le teint de la peau en se basant uniquement sur l'échantillon d'ADN.

Le tweet original a également suscité un débat sur la question de savoir si les interprétations archéologiques des échantillons d'ADN sont correctes.

Le communiqué de presse de la police a déclaré: "Je m'appelle Enyinnah Okere et en tant que chef de l'exploitation du Bureau de la sécurité et du bien-être communautaires d'EPS, je suis responsable de la supervision de notre section des agressions sexuelles - c'est mon équipe qui a publié un communiqué deux jours il y a quelques jours à propos de l'agression sexuelle non résolue d'une jeune femme en 2019.

"Il s'agissait d'une horrible agression sexuelle, qui a failli causer la mort de la jeune femme qui a été laissée inconsciente et presque entièrement dévêtue un matin de moins 27 degrés en mars."

Personne n'a jamais été poursuivi dans cette affaire, alors le service de police s'est tourné vers le logiciel Snapshot AI pour obtenir de l'aide.

Le suspect a été décrit comme "noir et environ 5'4" mais on ne savait rien d'autre à leur sujet qu'un échantillon d'ADN.

La déclaration se poursuit : "Pour faire avancer cette affaire bloquée, les membres de notre équipe ont demandé conseil à des collègues d'autres juridictions qui avaient déjà utilisé le phénotypage de l'ADN et en ont vu le potentiel ici. Ils ont commandé un profil que nous avons publié mardi."

Et d'ajouter : "Mais nous n'étions pas et ne sommes pas inconscients des questions légitimes soulevées quant à l'adéquation de ce type de technologie.

"Le potentiel qu'un profil visuel puisse fournir une caractérisation beaucoup trop large au sein d'une communauté racialisée et dans ce cas, la communauté noire d'Edmonton, n'était pas quelque chose que j'ai suffisamment pris en compte.

"Il est important d'équilibrer la valeur d'investigation potentielle d'une pratique avec les risques trop réels et les conséquences imprévues pour les communautés marginalisées."

Le communiqué conclut que toutes les images de l'IA ont été supprimées et que d'autres moyens seront utilisés pour tenter de rendre justice à la victime.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd