Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1647

Incidents associés

Incident 1997 Rapports
Ever AI Reportedly Deceived Customers about FRT Use in App

Loading...
Des millions de personnes ont téléchargé des photos sur l'application Ever. Ensuite, l'entreprise les a utilisés pour développer des outils de reconnaissance faciale.
nbcnews.com · 2019

"Créez des souvenirs": c'est le slogan du site Web de l'application de stockage de photos Ever, accompagné d'un logo cursif et d'un exemple d'album intitulé "Weekend with Grandpa".

Tout dans l'image de marque d'Ever est chaleureux et flou, il s'agit de partager vos "meilleurs moments" tout en libérant de l'espace sur votre téléphone.

Ce qui n'est pas évident sur le site Web ou l'application d'Ever – à l'exception d'une brève référence qui a été ajoutée à la politique de confidentialité après que NBC News a contacté l'entreprise en avril – c'est que les photos que les gens partagent sont utilisées pour former le système de reconnaissance faciale de l'entreprise, et qu'Ever propose ensuite de vendre cette technologie à des entreprises privées, aux forces de l'ordre et à l'armée.

En d'autres termes, ce qui a commencé en 2013 comme une autre application de stockage en nuage s'est transformé en une activité beaucoup plus lucrative connue sous le nom d'Ever AI, sans en informer les millions d'utilisateurs de l'application.

"Cela ressemble à une violation flagrante de la vie privée des gens", a déclaré Jacob Snow, avocat spécialisé dans la technologie et les libertés civiles à l'American Civil Liberties Union of Northern California. «Ils prennent des images des familles des gens, des photos à partir d'une application photo privée, et les utilisent pour créer une technologie de surveillance. C'est extrêmement préoccupant.

Doug Aley, PDG d'Ever, a déclaré à NBC News qu'Ever AI ne partageait pas les photos ni aucune information d'identification sur les utilisateurs avec ses clients de reconnaissance faciale.

Au contraire, les milliards d'images sont utilisées pour indiquer à un algorithme comment identifier les visages. Chaque fois que les utilisateurs d'Ever activent la reconnaissance faciale sur leurs photos pour regrouper les images des mêmes personnes, la technologie de reconnaissance faciale d'Ever apprend des correspondances et s'entraîne. Cette connaissance, à son tour, alimente les produits commerciaux de reconnaissance faciale de l'entreprise.

Aley a également déclaré qu'Ever est clair avec les utilisateurs sur le fait que la reconnaissance faciale fait partie de la mission de l'entreprise, et a noté qu'elle est mentionnée dans la politique de confidentialité de l'application. (Cette politique a été mise à jour le 15 avril avec plus de détails sur la façon dont l'entreprise utilise les photos de ses clients.)

De nombreuses entreprises proposent des produits et services de reconnaissance faciale, notamment Amazon, Microsoft et FaceFirst. Ces entreprises ont toutes besoin d'accéder à d'énormes bases de données de photos pour améliorer la précision de leur technologie de correspondance. Mais alors que la plupart des algorithmes de reconnaissance faciale sont formés sur des ensembles de données bien établis et diffusés publiquement – dont certains ont également été critiqués pour avoir pris des photos de personnes sans leur consentement explicite – Ever est différent en utilisant les photos de ses propres clients pour améliorer sa technologie commerciale.

L'utilisation par les entreprises de reconnaissance faciale de photos de personnes sans méfiance a suscité des inquiétudes croissantes de la part des experts de la confidentialité et des défenseurs des droits civils. Ils ont noté dans des entretiens que des millions de personnes téléchargent et partagent des photos et des informations personnelles en ligne sans se rendre compte de la façon dont les images pourraient être utilisées pour développer des produits de surveillance qu'ils ne prennent peut-être pas en charge.

Sur le site Web d'Ever AI, l'entreprise encourage les agences publiques à utiliser la "technologie d'Ever pour fournir à vos citoyens et aux forces de l'ordre le plus haut degré de protection contre le crime, la violence et l'injustice".

Le site Web Ever AI ne fait aucune mention des instantanés des «meilleurs moments». Au lieu de cela, dans les communiqués de presse, il décrit comment la société possède un "ensemble de données mondial privé en constante expansion de 13 milliards de photos et de vidéos" à partir de ce que la société a déclaré être des dizaines de millions d'utilisateurs dans 95 pays. Ever AI utilise les photos pour offrir "la meilleure technologie de reconnaissance faciale de sa catégorie", selon la société, qui peut estimer l'émotion, l'origine ethnique, le sexe et l'âge. Aley a confirmé dans une interview que ces photos provenaient des utilisateurs de l'application Ever.

Ever AI promet aux clients militaires potentiels qu'elle peut "améliorer les capacités de surveillance" et "identifier et agir sur les menaces". Il offre aux forces de l'ordre la possibilité d'identifier les visages dans les enregistrements de caméras corporelles ou les flux vidéo en direct.

Jusqu'à présent, Ever AI n'a obtenu des contrats qu'avec des entreprises privées, y compris un accord annoncé l'année dernière avec SoftBank Robotics, fabricant du robot "Pepper", un robot de service client conçu pour être utilisé dans l'hôtellerie et la vente au détail. Ever AI n'a signé aucune agence d'application de la loi, militaire ou de sécurité nationale.

Sarah Puchinsky-Roxey, 22 ans, de Lemoore, en Californie, a utilisé un juron lorsqu'elle a été informée par téléphone de l'activité de reconnaissance faciale de l'entreprise. "Je n'étais au courant d'aucune reconnaissance faciale dans l'application Ever", a ensuite envoyé un e-mail à Roxey, une photographe, notant qu'elle utilisait l'application depuis plusieurs années. "Ce qui est un peu effrayant puisque j'ai des photos de mes enfants et d'amis qui n'ont jamais consenti à ce genre de choses."

Elle a déclaré qu'elle avait trouvé les pratiques de l'entreprise "invasives" et qu'elle avait maintenant supprimé l'application.

UN NOUVEAU MODÈLE ÉCONOMIQUE

" n'allait pas être une entreprise à grande échelle.

Aley a déclaré qu'avoir un si grand "corpus" de plus de 13 milliards d'images était incroyablement précieux pour développer un système de reconnaissance faciale.

"Si vous êtes capable d'alimenter un système de plusieurs millions de visages, ce système finira par être meilleur et plus précis de l'autre côté", a-t-il déclaré.

Un test d'analyse comparative de l'industrie a révélé l'année dernière que la technologie de reconnaissance faciale d'Ever AI est précise à 99,85 % pour la correspondance des visages.

Lorsqu'on lui a demandé si l'entreprise pouvait mieux expliquer aux utilisateurs d'Ever que la technologie de l'application alimente Ever AI, Aley a répondu non.

"Je pense que notre politique de confidentialité et nos conditions d'utilisation sont très claires et bien articulées", a-t-il ajouté. "Ils n'utilisent aucun jargon juridique."

Après que NBC News a demandé à la société en avril si les utilisateurs avaient consenti à ce que leurs photos soient utilisées pour former un logiciel de reconnaissance faciale qui pourrait être vendu à la police et à l'armée, la société a publié une politique de confidentialité mise à jour sur le site Web de l'application.

Auparavant, la politique de confidentialité expliquait que la technologie de reconnaissance faciale était utilisée pour aider à "organiser vos fichiers et vous permettre de les partager avec les bonnes personnes". L'application dispose d'une fonctionnalité de marquage de visage opt-in, tout comme Facebook, qui permet aux utilisateurs de rechercher des amis ou des membres de la famille spécifiques qui utilisent l'application.

Dans la politique de confidentialité précédente, la seule indication que les photos seraient utilisées à d'autres fins était une seule ligne : "Vos fichiers peuvent être utilisés pour aider à améliorer et former nos produits et ces technologies."

Le 15 avril, une semaine après que NBC News a contacté Ever pour la première fois, la société a ajouté une phrase pour expliquer ce qu'elle entendait par "nos produits".

"Certaines de ces technologies peuvent être utilisées dans nos produits et services distincts pour les entreprises clientes, y compris nos offres de reconnaissance faciale d'entreprise, mais vos fichiers et informations personnelles ne le seront pas", indique désormais la politique.

Dans un e-mail, Aley a expliqué pourquoi le changement avait été effectué.

"Bien que nous pensions que notre ancienne politique nous couvrait bien, nous et nos consommateurs, plusieurs histoires récentes (ce n'est pas une nouvelle histoire), et non le contact de NBC, nous ont fait penser que des éclaircissements supplémentaires seraient utiles", a-t-il écrit. "Nous continuerons à apporter les changements appropriés au fur et à mesure que ce domaine évolue et que nous recevons des commentaires, comme nous l'avons toujours fait."

Ever AI a récemment été mentionné dans Fortune and Inc.

Jason Schultz, professeur de droit à l'Université de New York, a déclaré qu'Ever AI devrait faire davantage pour informer les utilisateurs de l'application Ever sur la manière dont leurs photos sont utilisées. Enfouir un tel langage dans une politique de confidentialité de 2 500 mots que la plupart des utilisateurs ne lisent pas est insuffisant, a-t-il déclaré.

"Ils exploitent commercialement la ressemblance des personnes sur les photos pour former un produit qui est vendu à l'armée et aux forces de l'ordre", a-t-il déclaré. "L'idée que les utilisateurs aient donné un consentement réel de quelque nature que ce soit est risible."

« UNE ÉNORME INVASION DE LA VIE PRIVÉE »

Mariah Hall, 19 ans, étudiante en deuxième année au Millsaps College à Jackson, Mississippi, utilise Ever depuis cinq ans pour stocker ses photos et libérer de l'espace sur son téléphone.

Lorsqu'elle a appris par NBC News que ses photos étaient utilisées pour entraîner la technologie de reconnaissance faciale, elle a été choquée.

"Les développeurs de l'application n'étaient pas clairs sur leurs intentions ni sur l'utilisation qu'ils faisaient de mes photos. C'est triste parce que je pense que c'est une énorme atteinte à la vie privée", a-t-elle écrit dans un e-mail.

"Si une entreprise utilise les informations de ses consommateurs pour s'associer à qui que ce soit - la police, le FBI - cela devrait être l'une des premières choses à dire aux consommateurs avant qu'ils ne téléchargent l'application."

Evie Mae, 18 ans, du Royaume-Uni, a accepté. Elle a déclaré via un message direct sur Twitter que l'idée que son visage soit utilisé pour développer un produit commercial de reconnaissance faciale la rendait "mal à l'aise" et qu'elle "ferait certainement plus attention" à l'endroit où elle téléchargeait ses photos à l'avenir.

Lorsque NBC News a déclaré à Aley que certains des clients d'Ever ne comprenaient pas que leurs photos étaient utilisées pour développer une technologie de reconnaissance faciale qui pourrait éventuellement se retrouver entre les mains du gouvernement, il a déclaré qu'il n'avait jamais entendu de plaintes.

"Nous sommes toujours ouverts aux commentaires et si quelqu'un a un problème avec cela, il peut le résoudre de deux manières : il ne peut plus être un utilisateur d'Ever Album et il peut également dire qu'il veut devenir un Ever Album. utilisateur, mais ils n'aimeraient pas que leurs photos soient utilisées pour former des modèles. Ces options sont disponibles pour les consommateurs aujourd'hui et l'ont toujours été.

Après une nouvelle correspondance avec NBC News, Aley a écrit le 30 avril que la société avait ajouté une nouvelle fonctionnalité contextuelle à l'application qui offre aux utilisateurs un moyen simple de refuser que leurs images soient utilisées dans l'outil de reconnaissance faciale de l'application. La fenêtre contextuelle ne mentionne pas que la technologie de reconnaissance faciale est utilisée au-delà de l'application et commercialisée auprès d'entreprises privées et des forces de l'ordre.

"Cette fonctionnalité intégrée au produit était auparavant disponible pour les utilisateurs de certaines régions géographiques", a écrit Aley, "et nous l'avons maintenant mise à la disposition de tous les utilisateurs d'Ever dans le monde, qu'elle soit légalement requise ou non".

CORRECTION (10 mai 2019, 17 h 26 HE) : Une version antérieure de cet article déformait le moment d'un investissement de 16 millions de dollars dans Ever. Cet investissement a été réalisé en 2016, avant le passage d'Ever à une entreprise de reconnaissance faciale, et non en 2017. Une référence à l'investissement suggérant que le passage à la reconnaissance faciale a profité financièrement à l'entreprise a été supprimée de l'article.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd