Incidents associés

M. Alcine a tweeté Google sur le fait que son application avait mal classé sa photo
Google se dit "consterné" que sa nouvelle application Photos ait qualifié à tort un couple noir de "gorilles".
Son produit marque automatiquement les images téléchargées à l'aide de son propre logiciel d'intelligence artificielle.
L'erreur a été portée à son attention par un développeur de logiciels basé à New York qui était l'une des personnes représentées sur les photos impliquées.
Google a ensuite été critiqué sur les réseaux sociaux en raison des connotations racistes du label.
"Ce n'est pas OK à 100%", a reconnu Yonatan Zunger, cadre de Google, après avoir été contacté par Jacky Alcine via Twitter.
"C'était en haut de ma liste de bugs que vous ne voulez "jamais" voir arriver."
M. Zunger a déclaré que Google avait déjà pris des mesures pour éviter que d'autres ne subissent une erreur similaire.
Copyright de l'image Twitter Image caption M. Alcine a déclaré que l'erreur avait affecté plusieurs photos de sa collection
Il a ajouté qu'il "travaillait également sur des solutions à plus long terme concernant à la fois la linguistique - les mots auxquels il faut faire attention dans les photos de personnes - et la reconnaissance d'image elle-même - par exemple une meilleure reconnaissance des visages à la peau foncée".
Ce n'est pas la première fois que Google Photos désigne à tort une espèce comme une autre.
Le site d'information iTech Post a noté que l'application marquait des photos de chiens en tant que chevaux en mai.
Les utilisateurs peuvent supprimer les classifications de photos mal identifiées dans l'application, ce qui devrait l'aider à améliorer sa précision au fil du temps - une technologie connue sous le nom d'apprentissage automatique.
Copyright de l'image Twitter Image caption Google a fait l'objet de critiques depuis que l'erreur a été rendue publique
Cependant, Google a reconnu la sensibilité de la dernière erreur.
"Nous sommes consternés et sincèrement désolés que cela se soit produit", a déclaré une porte-parole à la BBC.
"Nous prenons des mesures immédiates pour empêcher ce type de résultat d'apparaître.
"Il y a encore clairement beaucoup de travail à faire avec l'étiquetage automatique des images, et nous cherchons comment nous pouvons empêcher que ce type d'erreurs ne se reproduise à l'avenir."
Mais M. Alcine a déclaré à la BBC qu'il avait toujours des inquiétudes.
"J'ai quelques questions, comme le type d'images et de personnes utilisées dans leur amorçage initial qui a conduit à des résultats comme ceux-ci", a-t-il déclaré.
"Google a mentionné une recherche plus intensive pour faire passer les candidats de couleur par la porte, mais seul le temps nous dira si cela se produira et aidera à corriger l'image que les entreprises de la Silicon Valley ont avec la diversité intersectionnelle - l'acte d'unifier plusieurs fronts de personnes défavorisées. afin que leurs voix soient entendues et non étouffées."