Cámara Google Pixel 3: 5 cosas que debe saber sobre su función Super Res Zoom

El Google Pixel 3 ha llegado y es un teléfono que está aquí para hacer una gran cosa: redefinir la fotografía de teléfonos con cámara como la conocemos.

Sin embargo, se encuentra entre una competencia de peso pesado, con el recientemente anunciado Huawei Mate 20 Pro usando su equipo con Leica con gran efecto y el iPhone XS agregando la edición en la cámara y la destreza del procesador a sus tomas.

Estas cámaras hacen mucho con la configuración de dos / tres lentes; sin embargo, Google afirma que supera todo esto con solo una cámara con lente trasera, que ofrece 12.2MP f / 1.8 con estabilización de imagen óptica y electrónica. Entonces, ¿cómo está haciendo esto exactamente?

La compañía ha revelado muchos de los secretos de su cámara en una publicación de blog, revelando cómo creó su tecnología Super Res Zoom (un nombre elegante para el zoom digital) y cómo está desafiando la noción de que los superzooms digitales en las cámaras no son rival para los verdaderos óptica en una cámara.

La publicación del blog es muy detallada, así que aquí hay cinco cosas que aprendimos:

1. El zoom digital no se basa en una imagen, sino en muchas

“La tecnología Super Res Zoom en Pixel 3 es diferente y mejor que cualquier técnica anterior de zoom digital basada en la ampliación de un recorte de una sola imagen, porque fusionamos muchos fotogramas directamente en una imagen de mayor resolución”, explica Google.

Esta tecnología significa, según Google, que el zoom es equivalente en calidad a un zoom óptico de 2x.

2. El movimiento de la mano es el amigo del superzoom, no el enemigo

La tecnología Superzoom no funciona a menos que la cámara que estás usando esté muy quieta. Bueno, eso solía ser el caso, pero Google reconoce que ha encontrado una forma de evitarlo.

“Cuando capturamos una ráfaga de fotos con una cámara de mano o un teléfono, siempre hay algún movimiento presente entre los marcos”, dice Google.

“Para aprovechar el temblor de la mano, primero debemos alinear las imágenes en una ráfaga. Elegimos una sola imagen en la ráfaga como "base" o marco de referencia, y alineamos todos los demás marcos en relación con ella. Después de la alineación, las imágenes se combinan aproximadamente como en el diagrama que se muestra anteriormente en esta publicación ".

3. Crear un superzoom que funcione es un desafío

Al crear un superzoom digital en un teléfono móvil, existen muchos desafíos: las imágenes en ráfaga, incluso con buena iluminación, son ruidosas y hay movimiento en todas partes en las tomas que está tomando, lo que hace que el zoom no sea práctico, una interpolación compleja y problemática. Pero Google cree que lo ha solucionado.

“Estos desafíos parecerían hacer que la superresolución del mundo real sea inviable en la práctica o, en el mejor de los casos, limitarse a escenas estáticas y una cámara colocada en un trípode”, dice Google.

"Pero con Super Res Zoom en Pixel 3, hemos desarrollado un método de mejora de resolución de ráfaga estable y preciso que utiliza el movimiento natural de la mano y es lo suficientemente robusto y eficiente como para implementarlo en un teléfono móvil".

4. La fusión de píxeles elimina el ruido

Para combatir el ruido en una imagen tomada con el zoom, Google ha tenido que fusionar un poco el píxel con el blog señalando: “Analizamos los fotogramas de entrada y ajustamos cómo los combinamos, intercambiando aumento de detalle y resolución vs. supresión de ruido y suavizado.

“Logramos esto fusionando píxeles a lo largo de la dirección de los bordes aparentes, en lugar de a través de ellos. El efecto neto es que nuestro método de fotogramas múltiples proporciona el mejor equilibrio práctico entre la reducción de ruido y la mejora de los detalles ".

5. Las imágenes de referencia son clave para combatir el movimiento

Para evitar el efecto fantasma y el desenfoque de movimiento en sus imágenes ampliadas, Google tiene una imagen en mente para sus tomas.

“Para que el algoritmo maneje escenas con movimientos locales complejos (personas, automóviles, agua o hojas de árboles en movimiento) de manera confiable, desarrollamos un modelo de robustez que detecta y mitiga los errores de alineación”, señala el blog. "Seleccionamos un fotograma como imagen de referencia y fusionamos información de otros fotogramas en él solo si estamos seguros de haber encontrado la característica correspondiente correcta".

Todo lo anterior debe tomarse con una pizca de sal, ya que Google explica lo excelente que es la tecnología Pixel, pero lea la publicación completa si desea obtener su superzoom geek y obtener más información, o vea el video a continuación.

  • ¿Buscas el mejor teléfono con cámara? Entonces déjanos ser tu guía

Articulos interesantes...