No ha habido grandes sorpresas. El evento en el que Google ha dado a conocer hace unas horas las características de sus nuevos Pixel 4 y 4 XL ha seguido un guion muy similar al de anteriores presentaciones de esta compañía. Además, durante las últimas semanas se han filtrado la mayor parte de las especificaciones de estos móviles, pero esto no significa en absoluto que no haya sido un evento interesante. Si nos ceñimos a las capacidades fotográficas de estos smartphones, sí lo ha sido. Y mucho.
Marc Levoy, el portavoz que se ha encargado de hablarnos de las cámaras de los Pixel 4, ha dejado muy claro desde el principio de su presentación algo que ya sabíamos: Google sigue apostando por la fotografía computacional. De hecho, ha sido meridianamente claro: «nuestra filosofía pasa por depender menos de los circuitos electrónicos y más del código». Toda una declaración de intenciones. Los Pixel 3 nos sorprendieron hace un año por la forma en que impulsaron la fotografía computacional, y sus sucesores, sobre el papel, prometen ir todavía un paso más allá. Veamos qué sabemos por el momento.
Pixel 4 y 4 XL: especificaciones técnicas
Antes de que indaguemos en el software de los nuevos smartphones merece la pena que nos detengamos un momento para echar un vistazo a las cámaras de los Pixel 4. Y es que se ha cumplido lo que es desde hace tiempo «un secreto a voces»: tanto el Pixel 4 como el modelo XL incorporan dos cámaras traseras, y no sola una, como sus predecesores. La única diferencia entre los dos Pixel 4 que ha presentado hoy Google reside en el tamaño y la resolución de su panel OLED, por lo que las prestaciones fotográficas de ambos teléfonos móviles son las mismas.
Los nuevos Pixel 4 y 4 XL incorporan dos cámaras traseras: una unidad principal con sensor de 12,2 megapíxeles y óptica estabilizada f/1.7, y un teleobjetivo con captador de 16 megapíxeles y zoom óptico 1,8x
Una de las cámaras traseras, la que podemos identificar como principal, se apoya en un sensor de 12,2 megapíxeles y una óptica estabilizada de 28 mm con valor de apertura f/1.7 y enfoque automático por detección de fase. La otra cámara es un teleobjetivo asociado a un captador de 16 megapíxeles y una óptica estabilizada con valor de apertura f/2.4, y con enfoque automático por detección de fase. Este teleobjetivo nos propone un zoom óptico de 1,8x que queda lejos del zoom óptico 5x de sus competidores más avanzados, pero durante su presentación Marc Levoy ha hecho una demostración que nos invita a no menospreciar la capacidad del procesado digital que utiliza Google para poner en nuestras manos un zoom capaz de ir mucho más allá de esos 1,8 aumentos sin degradar perceptiblemente la calidad de imagen.
Las cámaras traseras están asistidas por un flash Dual LED y son capaces de grabar vídeo 4K UHD con una cadencia máxima de 30 fotogramas por segundo. La adición de la segunda cámara sobre el papel debería permitir a los Pixel 4 rendir mucho mejor al recurrir al zoom que los anteriores móviles de la familia Pixel, y no tanto por la óptica 1,8x, sino por la capacidad de recoger información simultáneamente con las dos cámaras con el propósito de procesarla con un algoritmo diseñado para implementar un zoom mucho más ambicioso.
La cámara frontal principal, por su parte, apuesta por un sensor de 8 megapíxeles y una óptica con valor de apertura f/2.0. Esta cámara está rodeada de múltiples sensores, y uno de ellos es de tipo TOF 3D. Google aún no ha desvelado el alcance de este último sensor, pero parece razonable pensar que no solo está involucrado en la lectura de nuestros gestos y movimientos, sino también en la recogida de información de segundo plano cuando se toma una fotografía con la cámara frontal. Tan pronto como caiga uno de los primeros terminales en nuestras manos lo comprobaremos y os contaremos si es así con todo lujo de detalles.
Google Pixel 4 |
Google Pixel 4 XL |
|
---|---|---|
Pantalla |
Flexible OLED 5,7 pulgadas FHD+ |
Flexible OLED 6,3 pulgadas QHD+ |
Procesador |
Snapdragon 855 a 2,8GHz |
Snapdragon 855 a 2,8GHz |
Versiones |
6GB/64GB |
6GB/64GB |
Cámara trasera |
12,2 Mpíxeles f/1.6 OIS PDAF 28mm |
12,2 Mpíxeles f/1.6 OIS PDAF 28mm |
Cámara frontal |
8 megapíxeles f/2.0 18mm | 8 megapíxeles f/2.0 18mm |
Software |
Android 10 |
Android 10 |
Batería |
2.800 mAh |
3.700 mAh |
Dimensiones |
147,05 x 68,8 x 8,2 mm |
160,42 x 75,13 x 8,2 mm |
Conectividad y sonido |
4G Dual (nanoSIM, eSIM), Cat18 (1,2 GBps) |
4G Dual (nanoSIM, eSIM), Cat18 (1,2 GBps) |
Otros |
Lector de huellas en pantalla |
Lector de huellas en pantalla |
Precio |
759 (64 GB) / 859 euros (128 GB) |
899 (64 GB) / 999 euros (128 GB) |
Live HDR+ con doble control de la exposición
Sobre el papel las capacidades del zoom de los Pixel 4 y 4 XL pintan muy bien, pero esta no es ni mucho menos la única característica interesante de estos smartphones. Y es que Google ha implementado en ellos una original función que nos permite ajustar la exposición por separado en altas luces (las zonas más brillantes de la imagen) y en las zonas en sombra. El propósito de este doble control de la exposición es ofrecernos la posibilidad de recuperar mucha información tanto en las áreas más iluminadas como en las más oscuras, pero también es una herramienta creativa muy interesante que nos invita a la experimentación.
Y es que es posible que en algunos escenarios de disparo, por ejemplo, nos interese ocultar el detalle de las zonas en sombra en primer plano por razones artísticas. Durante su presentación Marc Levoy mostró algunos ejemplos que ilustran con claridad las posibilidades que tiene este doble control de la exposición, y lo cierto es que pinta bien. Por supuesto, es una herramienta que puede tener un impacto positivo en la recreación del HDR dada su capacidad de recuperar mucho detalle tanto en las zonas más iluminadas como en las áreas en sombra.
Desafortunadamente, no sabemos con detalle cómo está implementada esta prestación, pero parece razonable pensar que es una evolución del HDR+ integrado por Google en los Pixel 2 y 3. Y esto nos da pistas muy interesantes. La más sólida es que sin duda recurre a la captura de una ráfaga de fotografías ligeramente subexpuestas con el propósito de combinarlas para recrear una única fotografía que aglutina lo mejor de todas esas instantáneas y nos brinda la sensación de haber estado correctamente expuesta. Esta es una técnica de fotografía computacional en toda regla.
El doble control de la exposición sin duda también recurre a la fotografía computacional para analizar la imagen con el propósito de identificar dos regiones claramente diferenciadas y permitirnos actuar de forma independiente sobre la exposición de cada una de ellas. En este contexto la captura de múltiples imágenes también resulta muy valiosa para recuperar tanta información como sea posible en aquel plano en el que el ajuste de la exposición lo requiere. Sobre el papel esta innovadora prestación pinta bien, pero no podemos sacar conclusiones definitivas hasta que tengamos la oportunidad de probarla a fondo en nuestras propias instalaciones.
Balance de blancos mejorado mediante aprendizaje automático
Uno de los retos que pocos smartphones resuelven realmente bien es el ajuste automático del balance de blancos en situaciones comprometidas. Un escenario de captura que ilustra bien esta situación es la toma de una fotografía en un entorno con poca luz ambiental que, además, es o muy fría, o muy cálida. En estas condiciones los colores de los objetos suelen quedar desvirtuados, un defecto que puede llegar a arruinar una fotografía.
El chip Pixel Neural Core puede marcar la diferencia al liberar a la CPU de buena parte de la carga de trabajo impuesta por los algoritmos de IA
Este es, precisamente, el problema que Google pretende resolver introduciendo en sus Pixel 4 y 4 XL un algoritmo de ajuste del balance de blancos que, según esta marca, recurre al aprendizaje automático para ofrecernos un ajuste convincente en cualquier escenario de disparo. De nuevo, suena bien, y la introducción del Pixel Neural Core podría marcar la diferencia. Este componente es un chip que pretende liberar a la CPU de buena parte de la carga de trabajo impuesta por los algoritmos de inteligencia artificial, por lo que parece razonable aceptar que debería colocar a los Pixel 4 en una posición de ventaja frente al rendimiento en este terreno de anteriores terminales de la familia Pixel. Lo comprobaremos cuando preparemos nuestro análisis del primer Pixel 4 que caiga en nuestras manos.
Modo retrato mejorado
Durante la presentación de los Pixel 4 Google apenas nos ha ofrecido información acerca de este nuevo modo retrato más allá del hecho de que, una vez más, recurre a la fotografía computacional para ofrecernos mejores retratos y desenfoques del fondo de más calidad. Eso sí, no cabe duda de que en este ámbito la incorporación de la segunda cámara puede marcar la diferencia a la hora no solo de recuperar el máximo detalle posible del objeto que estamos fotografiando, sino también al discriminar el primer plano del fondo.
Esta mayor cantidad de información puede ayudar a los algoritmos de procesado a «separar» con más precisión ambos planos, haciendo posible que el desenfoque del fondo no enmascare la información de contorno del objeto en primer plano. Una vez más la teoría nos indica que esta prestación puede rendir bien, pero solo sabremos con seguridad si su rendimiento en este escenario de disparo está a la altura de nuestras expectativas cuando tengamos la oportunidad de probarla a fondo.
Fotografía nocturna y astrofotografía
El rendimiento de los anteriores teléfonos móviles de la familia Pixel en fotografía nocturna y en los escenarios de disparo con baja luminosidad ambiental es fantástico. ¿Cómo lo hacen? Capturando una ráfaga de hasta 15 instantáneas con un tiempo de exposición máximo de 1/3 de segundo para cada una de ellas. Una vez obtenidas estas imágenes entra en acción el algoritmo de procesado de Google, que se responsabiliza de analizar y alinear todas las fotografías para generar una única instantánea que, en teoría, recoge la misma luz que habríamos obtenido con una exposición de hasta 5 segundos.
Google asegura que sus Pixel 4 se pueden usar para astrofotografía. Ahí queda eso
Al parecer, Google ha dado una nueva «vuelta de tuerca» a esta tecnología para conseguir que los nuevos Pixel 4 superen a sus antecesores con claridad. De hecho, según esta compañía, estos móviles se pueden utilizar para astrofotografía. ¿Realmente podremos fotografiar la luna o un cielo estrellado «a pulso» y sin que la trepidación arruine el detalle o el ruido se dispare? De nuevo todo dependerá de lo acertados que sean los algoritmos que ha puesto a punto el equipo de Marc Levoy. Eso sí, la combinación de la doble cámara de los Pixel 4, las técnicas de superresolución que ya vimos en los Pixel 3, la estabilización óptica y el balance de blancos mejorado mediante aprendizaje automático nos invitan a ser optimistas. Al menos hasta que tengamos la oportunidad de analizar a fondo estos teléfonos.
Pixel 4 y 4 XL: precio y disponibilidad
Los nuevos Pixel 4 y Pixel 4 XL de Google estarán disponibles el próximo 24 de octubre con un precio de 759 euros (Pixel 4 con 64 GB), 859 euros (Pixel 4 con 128 GB), 899 euros (Pixel 4 XL con 64 GB) y 999 euros (Pixel 4 XL con 128 GB). Ya se pueden reservar en la tienda on-line de Google.
Más información | Google