Cómo funciona la detección facial en el dispositivo de Apple

Apple lanzó hoy una nueva publicación en su blog Machine Learning Journal lanzado en el verano.

Titulada "Una red neuronal profunda en el dispositivo para la detección de rostros", la última publicación del blog hace todo lo posible para detallar procesos intensivos en recursos para reconocer rostros en sus fotografías aprovechando la potencia de las CPU y GPU personalizadas de Apple.

Apple reconoce que su fuerte compromiso con la privacidad del usuario le impide usar el poder de la nube para los cálculos de visión por computadora. Además, cada foto y video enviado a iCloud Photo Library está encriptado en su dispositivo antes de ser enviado a iCloud y solo puede ser desencriptado por dispositivos que estén registrados con la cuenta de iCloud.

Algunos de los desafíos que enfrentaron para que los algoritmos de aprendizaje profundo se ejecutaran en iPhone:

Los modelos de aprendizaje profundo deben enviarse como parte del sistema operativo, ocupando un valioso espacio de almacenamiento NAND. También deben cargarse en la RAM y requieren un tiempo de cálculo significativo en la GPU y / o la CPU. A diferencia de los servicios basados ​​en la nube, cuyos recursos pueden dedicarse únicamente a un problema de visión, el cómputo en el dispositivo debe realizarse al compartir estos recursos del sistema con otras aplicaciones en ejecución.

Lo más importante es que el cálculo debe ser lo suficientemente eficiente como para procesar una gran biblioteca de fotos en un período de tiempo razonablemente corto, pero sin un uso significativo de energía o aumento térmico.

PROPINA: Enseñe a su iPhone o iPad a reconocer los rostros de las personas

Para superar esos desafíos, Apple usa BNNS y Metal para desbloquear y aprovechar al máximo la potencia de sus GPU y CPU diseñadas internamente que están integradas en dispositivos iOS. En realidad, puede sentir esta detección facial en el dispositivo en el trabajo después de actualizar a una nueva versión principal de iOS.

Esto generalmente hace que iOS vuelva a escanear toda su biblioteca de Fotos y ejecute el algoritmo de detección facial en todas las fotos desde cero, lo que puede hacer que el dispositivo se sobrecaliente o se vuelva lento hasta que Photos haya terminado de escanear su biblioteca.

Apple comenzó a usar el aprendizaje profundo para la detección de rostros en iOS 10.

Con el lanzamiento del nuevo marco Vision en iOS 11, los desarrolladores ahora pueden usar esta tecnología y muchos otros algoritmos de visión por computadora en sus aplicaciones.

Apple señala que se enfrentó a "desafíos importantes" en el desarrollo del marco Vision para preservar la privacidad del usuario y permitir que el marco se ejecute de manera eficiente en el dispositivo.