Google detalla cómo funciona el modo astrofotografía en los Pixel

Modo astrofotografía en un teleéfono Pixel.
Modo astrofotografía en un teleéfono Pixel. - GOOGLE
Publicado: miércoles, 27 noviembre 2019 16:35

MADRID, 27 Nov. (Portaltic/EP) -

Google ha explicado cómo funciona el modo de astofotografía en los Pixel, que permite fotografiar las estrellas en el cielo nocturno con nitidez, después de que la nueva actualización de la Cámara de Google incluyera esta función en los Pixel 3 y 3a y en sus versiones XL, que ya tenía el Pixel 4.

En este tipo de fotografías es importante que entre la mayor luz posible para que la imagen no tenga ruido y para ello se aumenta el tiempo de exposición, es decir, el tiempo para capturar la luz. Sin embargo, si la exposición es muy larga, el movimiento en la escena fotografiada o la inestabilidad de la cámara puede hacer que la fotografía salga borrosa.

Para evitar esto, el modo astrofotografía de los Pixel divide la exposición en una secuencia de varios fotogramas con menos tiempo de exposición y, como consecuencia, menos movimiento en la escena fotografiada.

"Dividimos la exposición en fotogramas con cortos plazos de exposición suficientes para hacer que las estrellas parezcan puntos de luz", según ha explicado Google en un comunicado. Los fotogramas pueden estar borrosos de forma individual, pero al unirlos la imagen se ve "mucho más clara", según añade.

Google ha indicado que para fotografiar cielos nocturnos la exposición por cada fotograma no debe exceder los 16 segundos. "Pocos desean esperar más de cuatro minutos por una fotografía, por lo que hemos limitado una única astrofotografía a 15 fotogramas de hasta 16 segundos cada uno", ha recalcado. Es decir, en total 240 segundos o cuatro minutos.

A veces las fotografías capturadas de noche tienen demasiado brillo, lo que hace que se confunda y parezca que la imagen se ha sacado de día. La solución que tiene Google para ello es identificar y "oscurecer el cielo en fotografías con escenas de poca luz".

"Utilizamos aprendizaje automático para detectar qué partes de la imagen representan el cielo. Una red neuronal en el dispositivo, entrenada con más de 100.000 imágenes que fueron etiquetadas manualmente al trazar los contornos de las regiones del cielo, identifica cada píxel en una fotografía como 'cielo' o 'no cielo'", ha detallado Google.

Este método también se utiliza para reducir el ruido en la fotografía y "aumentar el contraste para hacer que las nubes o la Vía Láctea se note más".

Google anunció en septiembre que el Pixel 4 incluiría un modo específico para hacer fotografías de noche a las estrellas y dos meses más tarde señaló que la nueva actualización de la Cámara de Google contaría con el modo de astrofotografía.

Leer más acerca de: