Apple ha estado actualizando iOS 13 a un ritmo récord, en parte para agregar nuevas funciones, pero, principalmente, para corregir errores.
Pero eso no significa que las características adicionales aún no estén en el horizonte. Por ejemplo, la función de cámara Deep Fusion, que Apple anunció en su evento "solo por innovación" a principios de este año junto con el iPhone 11 y el iPhone 11 Pro. Apple siempre ha dicho que la función se lanzará en una fecha posterior, con una actualización de software posterior para iOS 13, y ahora la función está en beta.
El borde tiene el informe hoy, que describe cómo Apple está trabajando en el próximo lanzamiento público de Deep Fusion y cómo la característica hará que las cámaras ya impresionantes en los teléfonos inteligentes más nuevos de Apple sean aún mejores.
Puede ver el resultado de una foto capturada con Deep Fusion en la imagen en la parte superior de este artículo.
Deep Fusion es una característica importante para imágenes de "luz media a baja". También es una característica que se ejecuta completamente en segundo plano, trabajando para optimizar y mejorar las imágenes mientras el propietario del iPhone 11/11 Pro toma fotos mientras viaja.
El informe tiene un buen desglose de cómo debería funcionar en segundo plano:
- Cuando presiona el botón del obturador, la cámara ya ha capturado tres cuadros a una velocidad de obturación rápida para congelar el movimiento en la toma. Cuando presiona el obturador, toma tres disparos adicionales, y luego una exposición más larga para capturar detalles.
- Esos tres disparos regulares y disparos de larga exposición se fusionan en lo que Apple llama un "largo sintético": esta es una gran diferencia con respecto al Smart HDR.
- Deep Fusion elige la imagen de exposición corta con el mayor detalle y la combina con la exposición sintética de larga duración: a diferencia de Smart HDR, Deep Fusion solo combina estos dos cuadros, no más. Estas dos imágenes también se procesan para el ruido de manera diferente que Smart HDR, de una manera que es mejor para Deep Fusion.
- Las imágenes se ejecutan a través de cuatro pasos de procesamiento de detalles, píxel por píxel, cada uno adaptado a cantidades cada vez mayores de detalles: el cielo y las paredes están en la banda más baja, mientras que la piel, el cabello, las telas, etc. son el nivel más alto. Esto genera una serie de ponderaciones sobre cómo combinar las dos imágenes, tomando detalles de una y tono, color y luminosidad de la otra..
- Se genera la imagen final..
Según el informe, el teleobjetivo usará principalmente Deep Fusion, con la función Smart HDR solo tomando el control en una toma cuando hay escenas muy brillantes. Mientras tanto, la lente gran angular estándar dependerá principalmente de la función Smart HDR para escenas brillantes a medias brillantes, y Deep Fusion se activará con las escenas de luz media a baja. La lente ultra ancha nunca usará Deep Fusion o Modo nocturno, ya que solo admite la función Smart HDR, y ninguna de las otras funciones.
El modo nocturno siempre se activará y será la característica principal en un escenario con poca luz.
Como se señaló en el informe, Apple actualmente está probando la función en una versión beta de iOS 13. Sin embargo, esa versión beta actualmente no está disponible para desarrolladores ni probadores beta públicos. Apple probablemente sembrará esa primera beta, con Deep Fusion, en algún momento pronto, posiblemente incluso más tarde hoy como iOS 13.2.
¿Estás esperando la llegada de Deep Fusion??