El lanzamiento de los Pixel 2 y Pixel 2 XL dejó claras las intenciones de Google en el mercado de los smartphones de gama alta, y si había una característica destacada en estos dispositivos, eran sus cámaras, que según análisis independientes como los de DxOMark son las mejores en el ámbito de la fotografía móvil.
Las fotografías que se obtienen con esas cámaras son según los analistas excepcionales, algo sorprendente teniendo en cuenta que Google no se ha sumado a la tendencia de la cámara dual. No las necesitan, porque tienen un as guardado en la manga del que no nos habían hablado hasta ahora: sus primeros chips propios, los coprocesadores llamados Pixel Visual Core.
Fotografías con mucha inteligencia artificial detrás
Ofer Schacham, uno de los ingenieros de Google responsables del desarrollo del chip, explicaba en un artículo en el blog oficial de la empresa cómo la cámara de los Pixel 2 y Pixel 2 XL se ha beneficiado de la inteligencia artificial y del aprendizaje automático (machine learning) para lograr que ese modo HDR+ se convierta en uno de los prodigios de la actual fotografía computacional integrada en esos móviles.
Es ahí donde entra en juego el nuevo Pixel Visual Core, el coprocesador encargado de procesar todos los parámetros de una imagen para proporcionar ese modo HDR+ que da mayor contraste y rango dinámico a las imágenes y que además facilita por ejemplo que disfrutemos del efecto profundidad de campo (bokeh) en un móvil con un solo sensor.
Este coprocesador se basa en la integración de ocho Image Processing Units (IPUs), cada una de las cuales tiene 512 unidades aritmético-lógicas (ALUs) que permiten ofrecer una potencia de cálculo combinada de 3 billones de operaciones por segundo. Este coprocesador libera al procesador principal, y dado que es un chip para tareas específicas de mejora del ámbito de la fotografía logra ejecutar esas tareas cinco veces más rápido que la CPU usando además una décima parte de la energía que usaría el procesador convencional de estos móviles.
Un coprocesador que podría marcar una tendencia
En Google explican además cómo la integración entre el hardware y el software es vital para lograr sacar partido de ese co-procesador. Las IPUs hacen uso del lenguaje Halide para fotografía computacional y de TensorFlow para aplicar ese aprendizaje automático que permite sacar el mejor partido de las fotos en cada situación.
La potencia de este chip está disponible tan solo en la aplicación de cámara de los Pixel 2 y Pixel 2 XL, pero en Google han aclarado que en las próximas semanas ofrecerán a los desarrolladores las herramientas necesarias para aprovechar estas tecnologías para otras aplicaciones distintas.
Esperamos poder comprobar los resultados por nosotros mismos muy pronto, pero desde luego tanto las imágenes de ejemplo que ha utilizado Google como las que ya han ido apareciendo en algunos análisis externos dejan claro que ese coprocesador llamado Pixel Visual Core se comporta de forma fantástica.
Puede que otros fabricantes tomen nota, y sería interesante que este tipo de chip dedicado acabase convirtiéndose en una de las tendencias de un segmento cada vez más centrado en que las cámaras de sus móviles funcionen lo mejor posible.
En Xataka | Estas impresionantes fotos nocturnas demuestran de lo que es capaz la fotografía móvil computacional
Ver todos los comentarios en https://www.xataka.com.co
VER 0 Comentario