MADRID, 20 Ago. (Portalgeek) -
El MIT parece tener algo en contra de los
programas de retoque fotográfico, como Photoshop. Si a principios de mes el
Instituto presentaba un algoritmo desarrollado en colaboración con Google capaz de eliminar los reflejos de las fotografías, ahora ha
anunciado un sensor que compensa de forma automática la luz que le llega,
acabando así con las imágenes con un mal contraste, es decir, aquellas en que
aparece una silueta oscura sobre un fondo iluminado en exceso.
En un futuro, podremos tomar fotografías sin
siquiera mirar por el visor de la cámara, puesto que el propio dispositivo se
encargará de corregir todas las imperfecciones. Al menos eso es lo que se
propone el Instituto Tecnológico de Massachusetts, que ahora presenta un sensor
capaz de medir la cantidad de luz que recibe cada uno de sus
pixeles y de esta forma, evitar la sobreexposición de las imágenes, fruto de
las limitaciones de los sensores actuales para captar tonos intermedios,
especialmente de los teléfonos móviles.
Con esta tecnología, si un pixel se satura con cierta
cantidad de luz, se reinicia y vuelve a recibir luz, y así cuantas veces sean
necesarias. Después, establece un promedio que calcula exactamente la cantidad
de luz recibida, y cuál sería la luz óptima para ese puto concreto de la
imagen, según reporta Gizmodo.
Se trataría de una versión perfeccionada del
existente HDR, puesto que este sistema requiere tomar varias imágenes y
cotejarlas, mientras que el sensor del MIT opera de forma independiente en
cada pixel.
Si bien este sensor sería de gran ayuda a la hora
de capturar un rostro en una imagen a contraluz, cabe recordar que una
fotografía sobreexpuesta no siempre es sinónimo de fotografía
incorrecta, aunque a las asépticas máquinas se lo parezca.