Incidents associés

Alberta, la section canadienne d'Edmonton Police (EPS) a partagé l'image générée par l'IA sur [Twitter](https://www.the-sun. com/topic/twitter/) et a révélé comment le "phénotypage ADN" de type science-fiction peut être utilisé pour prédire à quoi ressemble un suspect.
La police a dû supprimer l'image controversée générée par l'IACrédit: Getty
Cependant, le service de police a dû supprimer rapidement l'image lorsqu'elle a déclenché un tollé en ligne.
Il a ensuite publié une déclaration et s'est excusé pour l'offense causée.
L'image g énérée par l'IA a été critiquée pour son inexactitude et a même été qualifiée de raciste par certains utilisateurs de Twitter en colère.
Maître de conférences en génétique à l'University College de Londres, Dr. Adam Rutherford, a répondu en tweetant : "Ici, généticien. Vous ne pouvez pas faire de profils faciaux ou de prédictions précises de pigmentation à partir de l'ADN, et c'est de l'huile de serpent dangereuse."
Une autre personne a tweeté: "C'est pourquoi nous voulons que la police soit supprimée. Vous gaspillez de l'argent en astrologie raciste pour les flics."
De nombreux autres tweets ont suggéré que l'IA était raciste car elle créait l'image d'un homme noir.
L'IA a également été critiquée pour ne pas être en mesure de déterminer avec précision des éléments de base tels que l'âge, les poils du visage et le teint de la peau en se basant uniquement sur l'échantillon d'ADN.
Le tweet original a également suscité un débat sur la question de savoir si les interprétations archéologiques des échantillons d'ADN sont correctes.
Le communiqué de presse de la police a déclaré: "Je m'appelle Enyinnah Okere et en tant que chef de l'exploitation du Bureau de la sécurité et du bien-être communautaires d'EPS, je suis responsable de la supervision de notre section des agressions sexuelles - c'est mon équipe qui a publié un communiqué deux jours il y a quelques jours à propos de l'agression sexuelle non résolue d'une jeune femme en 2019.
"Il s'agissait d'une horrible agression sexuelle, qui a failli causer la mort de la jeune femme qui a été laissée inconsciente et presque entièrement dévêtue un matin de moins 27 degrés en mars."
Personne n'a jamais été poursuivi dans cette affaire, alors le service de police s'est tourné vers le logiciel Snapshot AI pour obtenir de l'aide.
Le suspect a été décrit comme "noir et environ 5'4" mais on ne savait rien d'autre à leur sujet qu'un échantillon d'ADN.
La déclaration se poursuit : "Pour faire avancer cette affaire bloquée, les membres de notre équipe ont demandé conseil à des collègues d'autres juridictions qui avaient déjà utilisé le phénotypage de l'ADN et en ont vu le potentiel ici. Ils ont commandé un profil que nous avons publié mardi."
Et d'ajouter : "Mais nous n'étions pas et ne sommes pas inconscients des questions légitimes soulevées quant à l'adéquation de ce type de technologie.
"Le potentiel qu'un profil visuel puisse fournir une caractérisation beaucoup trop large au sein d'une communauté racialisée et dans ce cas, la communauté noire d'Edmonton, n'était pas quelque chose que j'ai suffisamment pris en compte.
"Il est important d'équilibrer la valeur d'investigation potentielle d'une pratique avec les risques trop réels et les conséquences imprévues pour les communautés marginalisées."
Le communiqué conclut que toutes les images de l'IA ont été supprimées et que d'autres moyens seront utilisés pour tenter de rendre justice à la victime.