
L'iPhone X pourrait être l'avenir de la conception des smartphones d'Apple, mais son célèbre système de reconnaissance faciale Face ID a un problème avec les moins de 13 ans : il est beaucoup plus difficile de les distinguer.
Dans un guide de sécurité publié mercredi, Apple recommande aux enfants de moins de 13 ans de ne pas utiliser Face ID car la probabilité d'une fausse correspondance est significativement plus élevée pour les jeunes enfants. La société a déclaré que c'était parce que "leurs traits faciaux distincts n'étaient peut-être pas complètement développés".
Bien que peu de jeunes enfants reçoivent probablement un iPhone à 999 £, les fausses correspondances sont également plus probables pour les jumeaux et les frères et sœurs. Dans toutes ces situations, la société recommande aux utilisateurs concernés de désactiver Face ID et d'utiliser un mot de passe à la place.
Pour la plupart des utilisateurs – ceux de plus de 13 ans sans « jumeaux maléfiques », comme les décrit Craig Federighi, responsable d’iOS d’Apple – la plus grande préoccupation concerne les attaques délibérées. Touch ID, le capteur d'empreintes digitales d'Apple, a été contourné deux jours seulement après son lancement dans l'iPhone 5S, en utilisant une fausse empreinte digitale placée sur un vrai doigt.
Avec Face ID, Apple a mis en place un système secondaire qui surveille exclusivement les tentatives de tromper la technologie. L'authentification et la défense contre l'usurpation d'identité sont basées sur l'apprentissage automatique, mais alors que la première est formée pour identifier les individus à partir de leur visage, la seconde est utilisée pour rechercher des signes révélateurs de tricherie.
"Un réseau neuronal supplémentaire formé pour détecter et résister à l'usurpation d'identité se défend contre les tentatives de déverrouillage de votre téléphone avec des photos ou des masques", indique la société. Si un masque complètement parfait est fabriqué, ce qui trompe le réseau neuronal d'identification, le système défensif le remarquera toujours - tout comme un humain.
Apple est également convaincu qu'il ne sera pas la proie des problèmes de biais algorithmique qui ont tourmenté de nombreuses tentatives d'utilisation des réseaux de neurones à grande échelle. Des exemples très médiatisés de tels échecs incluent le système de photo-étiquetage qui identifiait les Noirs comme des gorilles, ou le modèle d'association de mots qui stipule que les hommes sont des programmeurs informatiques et les femmes sont des femmes au foyer.
Chaque fois que sa formation initiale a révélé une lacune démographique, dit Apple, elle "a augmenté les études au besoin pour fournir un haut degré de précision à un large éventail d'utilisateurs". Le temps - et des millions de personnes dans le monde utilisant la technologie - dira si l'effort a fonctionné, mais l'entreprise semble confiante.
Un domaine avec lequel le système aura du mal, cependant, est celui des revêtements faciaux. Apple dit que "Face ID est conçu pour fonctionner avec des chapeaux, des écharpes, des lunettes, des lentilles de contact et de nombreuses lunettes de soleil", mais en fin de compte, deux choses dictent s'il a ou non une chance de succès. La première est de savoir si les revêtements sont transparents à la lumière infrarouge, et la seconde si le système peut voir les yeux, le nez et la bouche. Bien que certains tissus soient plus transparents à l'infrarouge qu'il n'y paraît, cela signifie que les utilisateurs d'iPhone qui se couvrent le visage peuvent être obligés de se fier à un mot de passe lorsqu'ils sont en déplacement.
Par ailleurs, Apple a également confirmé que la technologie de détection de profondeur incluse dans l'iPhone X n'est pas autorisée à être utilisée par les développeurs pour créer leur propre biométrie faciale, une possibilité qui avait préoccupé de nombreux militants de la vie privée.
Les données du capteur de profondeur ne sont pas directement disponibles pour les développeurs, mais l'API de l'appareil photo leur permet désormais de recevoir une mesure pixel par pixel de la distance entre les caractéristiques d'une image et l'objectif, un système destiné à être utilisé pour permettre la manipulation d'images telles que comme mode portrait d'Apple.
Cela pourrait théoriquement être utilisé pour créer une fonction d'authentification autonome, bien que moins précise que celle d'Apple, mais la société a mis à jour ses politiques de l'App Store pour empêcher les développeurs de tenter de le faire. "Vous ne pouvez pas tenter, faciliter ou encourager d'autres personnes à identifier des utilisateurs anonymes ou à reconstruire des profils d'utilisateurs sur la base de données collectées à partir d'outils de cartographie en profondeur et/ou faciale", indiquent désormais les directives de l'entreprise pour les développeurs.