A pesar de que vemos como cada vez más los fabricantes apuestan por integrar múltiples cámaras, eso no garantiza la máxima calidad de sus fotos. Nada más hay que ver los resultados obtenidos por la Cámara de Google para entender que el secreto está en el Software. El vivo ejemplo de eso lo tenemos con los Pixel 3, claros candidatos a la mejor fotografía móvil tradicional de la actual generación.
Los 3 elementos que definen una buena cámara.
La magia detrás de la fotografía móvil como en cualquier otra cámara, depende totalmente de tres factores, la óptica, el sensor y el postprocesado. La calidad de cada elemento es de vital importancia y cada uno juega un papel importante en el resultado final de la imagen. La óptica se encarga de filtrar la luz al sensor con precisión, minimizando la distorsión y la aberración cromática lo mejor posible. El sensor se encarga de captar toda la información al detalle y darle paso al postprocesado para revelar y corregir finalmente la captura.
Cada marca pone sus esfuerzos en lo que considere más oportuno o tenga más recursos y disponibilidad para invertir según su estrategia. Huawei por ejemplo dedica esfuerzos y pone empeño en sus ópticas en colaboración con Leica, logrando excelentes resultados. Sony por su parte trabaja finamente en sus sensores dotándolos de muchas prestaciones y grandes capacidades para ofrecer todo tipo de posibilidades. Y bueno Google ya sabemos lo que hace, explotar su enorme base de datos y poner su inteligencia artificial a trabajar.
El avanzado procesado de la cámara de Google.
Los Google Pixel destacan en la calidad de sus fotografías debido al impacto directo de su sofisticado procesado en el resultado final de sus imágenes. Aunque no lleven la mejor óptica ni el sensor más grande, sus algoritmos de procesado compensan eficientemente la mayoría de los escenarios de uso. Si bien hay otras características como la presencia o no de estabilización óptica o el sistema de enfoque, podemos concluir que el postprocesado es la baza más importante con la que cuenta Google.
El uso HDR+ y el Súper Zoom.

El HDR+ de los Google Pixel realiza en un solo disparo una ráfaga de entre 7 y 15 imágenes en menos 100 milisegundos. Luego un algoritmo identifica las regiones de cada fotografía que contienen más información y menos ruido para combinarlas. Dependiendo de la complejidad de la escena se ajustan la cantidad de imágenes a procesar tanto sub como sobrexpuestas para lograr un resultado óptimo. De esta forma se consiguen siempre fotos con un balance de blancos y saturación perfectas. Así se superan las restricciones impuestas por la óptica y el sensor del Smartphone en cada captura, dando la sensación de ser estos superiores.
En el caso de la superresolución, el objetivo al analizar la ráfaga es comparar píxel por píxel en cada una de las imágenes en procesamiento. Como un mismo fotodiodo del sensor puede capturar datos ligeramente diferente en las distintas tomas de la ráfaga, es posible recuperar información adicional. Todo gracias a la estabilización óptica, las pequeñas vibraciones que provoca nuestro pulso y la ayuda del algoritmo que crea una nueva trama de píxeles.
Hay que añadir que la ausencia de interpolación cromática debido a este proceso, contribuye a la recuperación de color y la reducción de ruido. El resultado final es una imagen construida, con más nivel de detalle y mayor resolución espacial. Para poder disfrutar de todas estas mejoras es necesario recurrir al uso del zoom digital que ofrece la cámara. Si queremos obtener la mejor calidad posible es importante no abusar, hasta 3x la pérdida de nitidez es prácticamente inapreciable.
El secreto de los Retratos.
Si hay algo en fotografía móvil que depende casi enteramente del postprocesado son los retratos, e indiscutiblemente Google cuenta con los mejores. Haciendo uso de la inteligencia artificial (IA) y a través del aprendizaje automático logran maravillas. Esto, diseñando métodos que permiten desarrollar un comportamiento a partir del análisis de datos de entrada por medio de la tecnología Dual Pixel.
El Dual Pixel requiere integrar en cada celdilla del sensor dos fotodiodos en vez de uno, lo que permite obtener 2 imágenes con cada captura. Entonces el software puede analizarlas e identificar las diferencias por sutiles que sean, obteniendo información para aplicar el desenfoque apropiado entre los diferentes planos. Una función parecida a la que realiza nuestro cerebro con la información llegada de los 2 ojos.
Entre las mejoras que implementa toda esta tecnología están un desenfoque del fondo más homogéneo y recorte del primer plano más preciso. Llegando a aprender incluso como tratar los huecos y contornos más complejos que delimitan el fondo y desenfocándolos también. Es importante destacar además la ventaja que esto supone para hacer retratos nocturnos al usarse el mismo sensor y postprocesado.
El flash sintético.
Otra característica que aporta un toque de profesionalidad a la cámara de Google es el llamado flash de relleno computacional, que funciona de la siguiente forma. El mismo algoritmo de aprendizaje autómatico de los retratos es el encargado de detectar los rostros para aplicar el efecto. En las escenas a contraluz o con poca luz ambiental, se trata de aplicar un efecto parecido al de los reflectores. Lo que se consigue es una iluminación más homogénea y natural posible de la cara de la persona en esas condiciones tan difíciles.
La magia de la fotografía nocturna.

Para esto Google también tiene una solución bastante decente que procura resolver los problemas asociados a este tipo de situación. Basado en la misma técnica de varias capturas en una sola toma, logra fusionar hasta 15 imágenes de 1/3s de exposición para recoger más luz. Con esto se obtiene el equivalente a una foto con una velocidad de obturación de 5s pero sin la trepidación que provocaría nuestro pulso. Una vez más el aprendizaje automático juega un papel importantísimo que va aportando prontitud y precisión más adecuadas en lo que se busca lograr.
Aunque se utiliza un proceso similar al del HDR+, el algoritmo detrás del modo de Visión Nocturna tiene además otras premisas a tratar. La borrosidad del movimiento de la escena, el ajuste del balance blancos, y la recuperación de detalle eliminando el ruido son las principales. Durante el postprocesado se alinean las imágenes con más luz obtenida intentando descartar las que menos información concordante aporten con respecto a la primera. Aunque no es infalible, dependiendo de la ocasión y las condiciones de tu uso puede hasta sorprenderte con lo que es capaz de hacer.