🇨🇴En nuestro WhatsApp siempre hay algo bueno📲

Así es la cámara del Samsung Galaxy Note 8

¿Samsung no tiene “doble cámara” en ninguno de sus teléfonos? Pues hasta ahora no, pero ya está solucionado, el Note 8 es ese teléfono importante que llega para introducir la deseada posibilidad. Para el que siga este mercado con interés sabrá que esto es un movimiento obvio, pero sin duda tardío, ya que al gigante coreano no le hubiera costado nada hacer alguna prueba con alguno de los innumerables dispositivos que pare cada año.

A pesar de que la fotografía computacional es el futuro de todo esto, yo los excuso: sus últimos teléfonos Galaxy S y Galaxy Note tienen un nivel fotográfico tan alto que no había que tener tanta prisa en evolucionar. Lo que tengo claro es que si Samsung ha decidido dar el salto ahora, es por que lo han realizado con todas las garantías.

Siendo muy duros con exigirle a Samsung que lleve el ritmo tecnológico del mercado, podríamos decir que está amparada por la propia Google, que ni tiene un trabajo especial en Android con esto de usar varias cámaras, ni se han vuelto locos en meter la posibilidad en sus teléfonos Pixel. De hecho se rumorea que el próximo Pixel tampoco tendrá dos ojos en su espalda.


Cómo son las cámaras del Note 8: normal y tele

No había necesidad de arriesgar con una doble cámara teniendo módulos excelentes en los Galaxy S

Lo dicho, son dos cámaras a la espalda con exactamente la misma resolución: 12 megapíxeles. Esa cantidad de fotodiodos parece la ideal hoy en día para crear un sensor móvil, ya que guarda el equilibrio entre el tamaño y resolución. Apple, Samsung o Google por ahora no quieren más megapíxeles, tampoco menos.

Esto nos invita a pensar que la calidad en un modo de funcionamiento normal debe ser tan alta como siempre, como podríamos esperar de un Galaxy S8, de hecho la óptica de la cámara principal sigue contando con la misma apertura máxima, que es f/1,7. En la siguiente tabla os dejo más claro cómo son esos sensores:

Con lo que nos tenemos que quedar es que sobre el papel tenemos la misma cámara, mínimo conseguiremos la misma calidad, a lo que le debemos de añadir la ayuda de un segundo sensor con un objetivo diferente. Sí, el segundo sensor vale para muchas más cosas que una toma diferente o generar un retrato con un efectista bokeh, también cuenta en cosas como enfocar más rápido y mejor, también nos ayudará cuando la luz sea peor en la escena.

Tenemos que destacar que las dos cámaras traseras cuentan con estabilización óptica

Como ha estado ocurriendo con todas las configuraciones de doble cámara que nos vamos encontrando en el mercado, la segunda cámara está un pasito por detrás en calidad, al menos es lo que nos dicen sus especificaciones. Tenemos menos apertura y un sistema de enfoque más sencillo, así que el 90% de las ocasiones estoy seguro de que nos merecerá la pena tirar con la cámara principal.

Nos gustará ahondar en el tema de los objetivos empleados cuando Samsung amplíe esta información, pero de base nos tenemos que quedar con la idea de que se presenta un “zoom óptico” de dos aumentos. Sea como sea me gustaría puntualizar que este tipo de zoom no implica usar mecanismos, son dos cámaras independientes que nos dan dos focales distintas. En digital podremos ampliar hasta 10x, pero ya sabemos que esto en la práctica se vuelve una funcionalidad de poca calidad.


No parece que haya grandes cambios en la cámara frontal, que ya estaba muy bien como estaba. Nos encontramos con un sensor de 8 megapíxeles que es capaz de enfocar de forma automática, cosa qua agradecemos bastante. También es de valorar que su visión angular está asociada a una lente con una apertura muy alta para su tamaño, f/1,7.

Live Focus, el deseado retrato

No iba a faltar, la primera razón para tener dos cámaras era poder implementar un modo de desenfoque digital lo más llamativo posible. Pues aquí está, los dos sensores se ponen a trabajar para determinar el corte de profundidad desde donde se va a empezar a difuminar la imagen. El Live Focus nos deja modificar las tomas una vez realizadas.

El modo Live Focus te permite ver en tiempo real el efecto de profundidad de la foto, también nos deja tocar ese ‘bokeh’ una vez tomada la foto

Además del Live Focus tenemos como novedad el modo Dual Capture, en él las dos cámaras disparan a la vez y guardan la misma escena con dos focales diferentes.

Un nuevo modo relacionado con el S Pen es Live Messages, en él nos permiten capturar una pequeña animación y dibujar sobre ella, al estilo de lo que se hace en Snapchat. Se convierten en formato GIF para poder ser compartidos.

Esto es un apartado que irá mejorando con actualizaciones, pero partimos de una base estupenda, como era de esperar en Samsung. También es fácil encontrarse con errores, a la fotografía computacional de estos pequeños cerebros todavía le cuesta identificar bien los bordes cuando estos son complicados, a la luz escasea. Es cuestión de aprender y sacarle jugo.

Un golpe de realidad

La calidad de una toma normal y corriente, con el sensor principal de la cámara no va a ser revolucionaria con respecto a un Galaxy S8, de hecho tenemos que enfrentarnos a una realidad: un año después de que Apple, Huawei y LG apostaran muy fuerte por colocar dos cámaras, los teléfonos con mejores análisis fotográficos siguen contando con una cámara.

Hablo del propio Galaxy S8 y su variante plus, también hablo del Google Pixel o del más desconocido pero no menos interesante HTC U11. La mayoría de los teléfonos importantes tiran de sensores Sony y son los algoritmos de procesado de imagen los que hacen que nos parezcan mejores opciones.

Software, tan importante como las dos cámaras

Apple tiene a 800 ingenieros mejorando el software de su cámara, Samsung no estará muy lejos. Ahí se marcan las verdaderas diferencias

La magia de todas estas cámaras pequeñitas que tienen nuestros móviles está en el software, y ahí tanto Apple como Samsung tienen los departamentos de ingenieros más potentes del mercado, así que los coreanos no van a tardar en acercarse al nivel de los iPhones en cosas como el retrato, si es que no lo están ya. Paciencia, pronto llegarán nuestros análisis y tomas de contacto más profundas para verificar esto.

No me extiendo demasiado en definir qué es la fotografía computacional, pero es importante que conozcamos por qué es tan importante el software aquí. Con ella somos capaces de mejorar la captura que podemos hacer con una cámara digital, dejando a un lado los procesos ópticos. Si tenemos varios módulos obteniendo diferente información de una escena, la suma inteligente de las tomas nos abrirá las puertas de un nuevo mundo en calidad: situaciones de poca luz, estabilización y enfoque más rápido, por poner los ejemplos que más nos interesan.

Un ejemplo que parece que ahora mismo no nos interesa tanto pero que a mi me parece tan importante como hacer un retrato bonito es el de la realidad aumentada. Aquí Apple está haciendo grandes avances a nivel de desarrollo con ARKit, y será uno de los puntos a explotar en los próximos teléfonos iPhone. Por el hecho de necesitar más información y reconocer los elementos en el espacio, las dos cámaras se vuelven vitales.

¿Quién lleva entonces el peso de la evolución? Aunque Apple esté avanzando mucho con la doble cámara estoy seguro de que Google Lens, presentado en el pasado Google IO 2017, va a ayudar a llevar a la fotografía computacional a otro nivel en poco tiempo: esperamos poder eliminar elementos, crear mejores retratos o aplicar mejoras automáticas. Obviamente Samsung hace su camino sola, pero todo lo que Google ponga sobre la mesa también lo va a poder utilizar ella.

Cómo lo hace la competencia

Los teléfonos Android golpearon primero con esto de la doble cámara, aunque el iPhone 7 Plus podemos decir que es la que la convirtió en una especificación famosa y necesaria. En este tiempo nos hemos encontrado con montones de teléfonos en diferentes niveles de precios que empiezan a enseñarnos que se pueden hacer cosas muy decentes, lo curioso es que sigue habiendo diferentes caminos para mejorar las tomas.

Ópticas extremas

El caso más diferente o desaprovechado del mercado creo que es el de LG, tanto en G5 como en G6 apuestan por cámaras con angulares muy grandes - también el V20 -, con focales bien diferenciadas.

El efecto es tan extremo como divertido, pero dónde queda la fotografía computacional, en ningún momento se une la información de los dos módulos para conseguir mejorar las imágenes. Un ejemplo del tipo de fotografías que se consiguen:

El sensor monocromo

El segundo camino existente, mejor trabajado en mi opinión, es el de utilizar un segundo sensor monocromático. Esto lo comenzó Huawei en sus teléfonos P y también lo vemos utilizado por el estupendo Xiaomi Mi6, posiblemente la opción más asequible y decente en esto de usar dos cámaras. Otros teléfonos que funcionan así son el Moto Z2 Force, ZTE Blade V8. Honor 9/8 Pro, Huawei Mate 9 y el Essential Phone.

En resumidas cuentas tenemos que el sensor monocromo no filtra la luz de la misma forma y captura una mayor profundidad de negro, lo que incidirá principalmente en el detalle: un sensor prioriza en el color, el otro en el detalle. Veamos un ejemplo:

Dos ópticas para una foto

La última opción es a la que se apunta Samsung, estrenó Apple, y es posiblemente la más interesante al proponer dos focales diferentes en el mismo teléfono, sin olvidarse de aprovechar la fotografía computacional. En este grupo tenemos al OnePlus 5, el Asus ZenFone 3 Zoom o el Oppo R11.

Podríamos crear una cuarta división con el teléfono Cat S60, que cuenta con una cámara normal de 13 megapíxeles y otra termal desarrollada por FLIR, pero es único en su especie y no parece que esto sea un camino a seguir por las grandes marcas.

Volviendo al punto anterior, os dejo un ejemplo de fotografía computacional con el iPhone 7 Plus, que es el mismo que tomó Samsung; con sus bordes problemáticos pero buena calidad:

Ver todos los comentarios en https://www.xataka.com.co

VER 0 Comentario

Portada de Xataka Colombia