Incidentes Asociados

El iPhone X podría ser el futuro del diseño de teléfonos inteligentes de Apple, pero su elogiado sistema de reconocimiento facial Face ID tiene un problema con las personas menores de 13 años: es mucho más difícil distinguirlos.
En una guía de seguridad publicada el miércoles, Apple recomienda que los niños menores de 13 años no usen Face ID debido a que la probabilidad de una coincidencia falsa es significativamente mayor para los niños pequeños. La compañía dijo que esto se debía a que "es posible que sus rasgos faciales distintivos no se hayan desarrollado completamente".
Si bien es probable que a pocos niños pequeños se les dé un iPhone de £ 999, las coincidencias falsas también son más probables para los gemelos y hermanos. En todas esas situaciones, la compañía recomienda a los usuarios preocupados que deshabiliten Face ID y usen un código de acceso en su lugar.
Para la mayoría de los usuarios, los mayores de 13 años sin "gemelos malvados", como los describe el jefe de iOS de Apple, Craig Federighi, la mayor preocupación son los ataques deliberados. Touch ID, el sensor de huellas dactilares de Apple, se pasó por alto solo dos días después de su lanzamiento en el iPhone 5S, usando una huella dactilar falsa colocada sobre un dedo real.
Con Face ID, Apple ha implementado un sistema secundario que busca exclusivamente intentos de engañar a la tecnología. Tanto la autenticación como la defensa contra la suplantación de identidad se basan en el aprendizaje automático, pero mientras que la primera está entrenada para identificar a las personas por sus rostros, la segunda se usa para buscar signos reveladores de trampas.
“Una red neuronal adicional que está entrenada para detectar y resistir la suplantación de identidad lo defiende contra los intentos de desbloquear su teléfono con fotos o máscaras”, dice la compañía. Si se fabrica una máscara completamente perfecta, que engaña a la red neuronal de identificación, el sistema defensivo aún lo notará, como un ser humano.
Apple también confía en que no será víctima de los problemas de sesgo algorítmico que han plagado muchos intentos de usar redes neuronales a escala. Ejemplos de alto perfil de tales fallas incluyen el sistema de etiquetado fotográfico que etiquetaba a las personas negras como gorilas, o el modelo de asociación de palabras que establece que los hombres son programadores de computadoras y las mujeres son amas de casa.
Cada vez que su capacitación inicial expuso una deficiencia demográfica, dice Apple, "aumentó los estudios según fue necesario para proporcionar un alto grado de precisión para una amplia gama de usuarios". El tiempo, y millones de personas en todo el mundo que usan la tecnología, dirán si el esfuerzo funcionó, pero la empresa parece segura.
Sin embargo, un área con la que el sistema tendrá problemas son los revestimientos faciales. Apple dice que "Face ID está diseñado para funcionar con sombreros, bufandas, anteojos, lentes de contacto y muchas gafas de sol", pero en última instancia, dos cosas dictan si tiene o no posibilidades de éxito. La primera es si las cubiertas son transparentes a la luz infrarroja y la segunda si el sistema puede ver los ojos, la nariz y la boca. Si bien algunas telas son más transparentes a los infrarrojos de lo que parecen, eso significa que los usuarios de iPhone que se cubren la cara pueden verse obligados a confiar en un código de acceso cuando están fuera de casa.
Por otra parte, Apple también ha confirmado que los desarrolladores no pueden utilizar la tecnología de detección de profundidad incluida en el iPhone X para crear su propia biometría facial, una posibilidad que preocupaba a muchos activistas de la privacidad.
Los datos del sensor de profundidad no están disponibles directamente para los desarrolladores, pero la API de la cámara ahora les permite recibir una medida píxel por píxel de qué tan lejos están las características de una imagen de la lente, un sistema diseñado para permitir la manipulación de imágenes como como el propio modo de retrato de Apple.
En teoría, eso podría usarse para crear una función de autenticación independiente, aunque menos precisa que la de Apple, pero la compañía ha actualizado sus políticas de la App Store para evitar que los desarrolladores intenten hacerlo. “No puede intentar, facilitar o alentar a otros a identificar usuarios anónimos o reconstruir perfiles de usuarios en función de los datos recopilados de las herramientas de mapeo facial y / o de profundidad”, establecen ahora las pautas para desarrolladores de la compañía.