Bloomberg informó esta mañana que Apple está trabajando en un sensor 3D trasero diferente de la cámara TrueDepth que mejoraría las características de realidad aumentada y el mapeo de profundidad.
La cámara TrueDepth construye una malla tridimensional de la cara de un usuario proyectando un patrón de 30,000 puntos infrarrojos sobre ella. Aprovechando un enfoque de luz estructurada, el sistema mide la distorsión de cada punto para construir una imagen 3D para autenticación.
Se dice que el sensor orientado hacia atrás para iPhones 2019 aprovecha una técnica conocida como tiempo de vuelo que calcula el tiempo que tarda un haz de luz infrarroja en rebotar en los objetos circundantes para crear una imagen tridimensional de el entorno.
"Se espera que la compañía mantenga el sistema TrueDepth, por lo que los futuros iPhones tendrán capacidades de detección 3-D tanto frontales como traseras", agregó el informe.
Un sensor trasero permitiría aplicaciones de realidad aumentada más sofisticadas, mapeo de profundidad preciso y seguimiento más confiable. ARKit actualmente fusiona la alimentación de la cámara y los datos de movimiento de los sensores integrados para detectar superficies planas y rastrear objetos virtuales superpuestos en el mundo real, pero lucha con planos verticales como paredes o ventanas.
Como ejemplo, si un tigre digital camina detrás de una silla real, la silla todavía se muestra detrás del animal, lo que destruye la ilusión. Un sensor 3D trasero solucionaría eso.
"Si bien el enfoque de luz estructurada requiere que los láseres se coloquen con mucha precisión, la tecnología de tiempo de vuelo se basa en un sensor de imagen más avanzado", escribieron los autores Alex Webb y Yuji Nakamura. "Eso puede hacer que los sistemas de tiempo de vuelo sean más fáciles de ensamblar en grandes volúmenes".
Supuestamente, Apple inició conversaciones con algunos proveedores que construirían el nuevo sensor, incluidos Infineon, Sony, STMicroelectronics y Panasonic. Curiosamente, Google ha estado trabajando con Infineon en el mapeo de profundidad como parte de su Proyecto Tango presentado en 2014.
¿Deberían los futuros iPhones tener capacidades de detección 3D delanteras y traseras??
Suena apagado en los comentarios!