🇨🇴En nuestro WhatsApp siempre hay algo bueno📲

Y llegó Turing: así es la arquitectura de unas NVIDIA RTX 2000 que lo quieren cambiar todo

En tecnología hay empresas que se acomodan y otras que intentan mirar al futuro. Que precisamente es lo que hace la arquitectura Turing, que es absoluta protagonista de las nuevas tarjetas gráficas NVIDIA GeForce RTX 2070, RTX 2080 y RTX 2080 Ti.

En NVIDIA lo dejaron bien claro durante la presentación de esta familia: era relativamente sencillo darle una vuelta de tuerca a las GTX 1000, pero en NVIDIA querían ir más allá, y lo cierto es que Turing tiene muchas papeletas para dar ese salto incremental que quizás solo apreciemos con el paso del tiempo. Estos son los secretos de Turing, la arquitectura que refuerza la apuesta por el gaming, pero que además plantea una revolución tanto con el ray-tracing como con sus procesadores neuronales.

Bienvenida, Turing

El pasado 20 de agosto de 2018 se iniciaba la era Turing. En NVIDIA nos presentaban la tecnología con todo lujo de detalles, y lo hacían además dedicando toda una jornada —el llamado 'Editor's Day'— a desvelarnos los entresijos de esta arquitectura.

En este evento varios de los máximos responsables de NVIDIA desgranaron cada uno de los componentes de una arquitectura que representa un cambio fundamental en algunos apartados frente a lo que ofrecía Pascal.

De hecho en Turing se aprovechan algunas de las fortalezas de Pascal, pero todas ellas se refuerzan para mejorar el rendimiento en el ámbito del gaming. En esta primera parte nos centraremos en el análisis de la arquitectura: ya hemos recibido las tarjetas que nos permitirán evaluar su rendimiento en los próximos días, y será entonces cuando podamos hablar de esos resultados reales que tanta expectación están causando.

Nueva arquitectura, nuevos cores

Tan importante como esos resultados es entender esa arquitectura que debuta con las NVIDIA GeForce RTX 2070, RTX 2080 y RTX 2080 Ti. Y lo primero que hay que entender en Turing es cómo cambian sus núcleos de proceso.

La base de todo ello es el procesador Turing SM (Streaming Multiprocessor), que combina una nueva unidad de ejecución de enteros (INT32) con una unidad para ejecución de números en coma flotante (FP32).

Eso habilita la ejecución de ambos tipos de proceso en paralelo, y según NVIDIA eso permite aumentar en un 36% el rendimiento de las operaciones en coma flotante, sobre todo porque, como nos explicaron, muchas instrucciones en procesos de todo tipo no son de coma flotante, algo que hacía que anteriores generaciones desaprovechasen ese foco.

A esa combinación se le suma una nueva arquitectura de cachés unificadas que alcanza un ancho de banda que es un 50% superior al de la anterior generación.

Estos chips son los primeros en soportar además memoria GDDR6, otra de las novedades tecnológicas introducidas con las nuevas tarjetas gráficas de NVIDIA. Aunque en NVIDIA consideraron alternativas como HBM2, acabaron decidiéndose por una GDDR6 que entre otras cosas permite alcanzar transferencias de datos de hasta 14 Gbps.

Tensor Cores: a por la inteligencia artificial

Ahí no acaba la cosa, porque junto a dichos cores encontramos a los otros dos núcleos que precisamente plantean esa verdadera revolución en esta arquitectura. El primero de esos núcleos es el llamado Tensor Core, que está orientado a ser un elemento clave para esa otra revolución llamada aprendizaje profundo (deep learning) que en NVIDIA llevan tiempo poniendo como pilar de su futuro.

Este tipo de cores plantea un cambio radical en ámbitos como la clasificación de imágenes, que hasta no hace mucho era una tarea especialmente exigente en recursos y tiempo. Con deep learning todo cambió de forma notable, porque se permite poder realizar operaciones sobre matrices enormes.

Como indicaban en aquella presentación, estos Tensor Core permiten alcanzar hasta 114 TFLOPS de operaciones FP16, hasta 228 TOPS INT8 y hasta 455 TOPS INT4, cifras que como decimos multiplican hasta por 8 las que se conseguían con GPUs de la era Pascal.

En Pascal esas operaciones eran ineficientes, pero gracias a estos Tensor Cores es posible lograr 8 veces el rendimiento de proceso en esas operaciones con Turing.

RT Cores: el ray-tracing llega a la informática de consumo

Reservado hasta ahora a los grandes estudios de cine y de diseño y animación 3D, la tecnología de ray-tracing o trazado de rayos da su primer paso en el segmento de consumo, tanto en el ámbito del gaming como en otros muchos en los que podría ser aplicado para que asistamos a esa esperada revolución del fotorrealismo.

Es ahí donde entran los llamados RT Cores, los núcleos en los que NVIDIA llevaba trabajando literalmente años pero que por limitaciones tecnológicas jamás se habían podido integrar en un procesador gráfico convencional.

El algoritmo BVH (Bounding Volume Hierarchy) era una de las claves a la hora de resolver el problema del trazado de rayos, que en anteriores generaciones de gráficas de NVIDIA se resolvía con ese algoritmo y emulación software.

Ese tratamiento del trazado de rayos en Pascal era ineficiente, complejo y difícl, pero con Turing y estos RT Cores esas tareas multiplican su rendimiento en este ámbito de forma asombrosa. Según las pruebas internas de NVIDIA, una 2080 Ti es 10 veces más rápida que una 1080 Ti en este tipo de escenarios.

En esa aceleración hardware intervienen los nuevos Mesh Renderers, que permiten calcular muchos más objetos para renderizar en paralelo que antes. Esa inteligencia que aportan estos RT Cores permite además que se "dibujen" muchos menos triángulos de los que hay realmente en la escena gracias a su trabajo con los Mesh Shaders.

La eficiencia de estos nuevos algoritmos es muy superior a la que se podía lograr hasta ahora, lo que permite por primera vez acercar el mundo del trazado de rayos a entornos de consumo.

En este ámbito entra también el llamado Variable Rate Shading, una técnica que permite aplicar esos shaders donde más se necesitan, y centrar la potencia de proceso de forma óptima. Ese proceso es sobre todo adaptativo, y se aplica al contenido, al movimiento e incluso a campos como la realidad virtual.

Precisamente aquí procesar solo aquello que estamos viendo en nuestro campo de visión (dejando un poco en segundo plano el resto de la escena) es crucial para la eficiencia de estos procesos.

En esta parte de la charla NVIDIA también quiso hablarnos de cómo la realidad virtual se beneficia con las nuevas GeForce RTX 2000 del nuevo VirtualLink, una tecnología que hace uso de conector USB-C y que es algo así como un USB supervitaminado: esta interfaz permite dar salida de vídeo 8K60 HDR, HDR nativo, DP 1.4a, y además ese Virtual Link que permite que conectemos futuras gafas de realidad virtual con un solo cable.

Esa salida se combina con los puertos HDMI y Display Port integrados en estas gráficas, y que habilitarán la conexión de monitores con resoluciones 8K60 gracias a los estándares HDMI 2.0b y DisplayPort 1.4a que ya forman parte de esta nueva familia.

Más rendimiento (combinado) que nunca y NVIDIA NGX a escena

Los responsables de NVIDIA también quisieron hacer un repaso por las grandes ventajas que ofrecía esta tecnología, que para empezar cuenta con un rendimiento combinado (las llamadas RTX-OPS) mucho mayor que el de sus predecesoras.

Una parte fundamental de ese rendimiento es el dedicado a los ámbitos de deep learning que ya habíamos mencionado anteriormente. Las aplicaciones de este campo son enormes.

Hemos visto ya algunos ejemplos de lo que se puede lograr con esta tecnología en el pasado. Poder lograr imágenes de mucha más definición a partir de imágenes algo borrosas (sobre todo en los detalles), o esos impresionantes vídeos a súper cámara lenta son algunos de los ejemplos que demuestran lo que es capaz de conseguir esta tecnología.

Es ahí donde entra el llamado NVIDIA NGX (Neural Graphics Framework), un marco de trabajo y desarrollo que permite trabajar en el ámbito de la inteligencia artificial con las nuevas gráficas de NVIDIA.

DLSS, heredero del antialiasing

Aquí es donde además llega uno de los avances más importantes en el ámbito del gaming: la tecnología DLSS (Deep Learning Super-Sampling), que aplica deep learning e inteligencia artificial a las técnicas de renderizado para ofrecer bordes muy definidos y suaves en todo tipo de objetos en los videojuegos.

Es difícil apreciar las diferencias durante el juego o contenido con TAA y DLSS, pero eso es lo que precisamente importa: que los resultados son iguales o mejores que en TAA, pero con DLSS descargamos el trabajo para lograr tasas de fotogramas más elevadas.

El lanzamiento de las nuevas gráficas GeForce RTX 2000 ha sido además un punto de inflexión para la aplicación de esta nueva tecnología en unos cuantos juegos de nueva hornada como 'Assetto Corsa Competizione', 'Battlefield V', 'Control', o 'Shadow of the Tomb Raider'.

Esa adopción se irá ampliando en el futuro, como explicaba la propia NVIDIA en el lanzamiento de su nueva familia de gráficas.

¿Qué logra esta tecnología? Pues lo que el antialiasing lograba en el pasado, pero "con mucho menos esfuerzo". La introducción aquí de la tecnología NGX permite que comparativamente los resultados del tradicional TAA que encontrábamos en Pascal y el nuevo DLSS 2X que encontramos en Turing sean muy similares, pero la carga impuesta por TAA en Pascal era mucho más alta, y en DLSS el nivel de detalle conseguido es equivalente pero con una tasa de fotogramas netamente superior.

Una familia que promete mucho

Hace unas semanas NVIDIA liberó algunas de las pruebas internas que había realizado con sus nuevas GeForce RTX 2000, y lo cierto es que los resultados internos parecen demostrar que la mejora de rendimiento que plantean estas gráficas frente a la anterior generación es notable.

NVIDIA curiosamente no quiso hacer demasiado hincapié en el juego 4K a 60 Hz que muchos consideran el siguiente 'santo grial' de los videojuegos, pero sí dejó claro que muchos juegos modernos ya alcanzaban tasas de fotogramas perfectas para disfrutar de esos títulos a esa enorme resolución, a 60 Hz e incluso con HDR.

Esta familia debuta con la llamada Founder's Edition, que destaca por un diseño sobrio pero desde luego espectacular en tonos oscuros.

En esas tarjetas NVIDIA ha planteado un diseño con dos ventiladores de 13 palas, una cámara de vapor de doble capacidad y una parte inferior que es un gran disipador para lograr mantener a raya las temperaturas generadas por estas gráficas.

Ese diseño permite que el nivel de ruido generado sea muy inferior al de las GTX 1080 (29 dBA de las RTX 1080 frente a los 36 dBA de las GTX 1080, por ejemplo), pero además es importante para otro ámbito muy apreciado por los gamers: el overclocking.

NVIDIA ahora potencia este tipo de operaciones con unas herramientas más "inteligentes" y que permiten automatizar el proceso... sin renunciar a las operaciones manuales a las que los usuarios siguen teniendo acceso.

El trazado de rayos al poder

El ray-tracing o trazado de rayos ha sido uno de los grandes retos de NVIDIA a la hora de aplicarlo a la informática de consumo. Este campo, que inició su andadura a finales de 1960 y que luego avanzaría en los 80 y sobre todo en los 90, acabó convirtiéndose en el perfecto aliado de las grandes superproducciones de Hollywood para ofrecer escenas fotorrealistas.

Con Turing y las nuevas NVIDIA GeForce RTX 2000 accedemos por fin a esta tecnología en el ámbito de consumo. El primer paso llega con el llamado Hybrid Rendering Pipeline, que combina el trazado de rayos con esa rasterización que ha sido el pilar fundamental de ese renderizado en tiempo real, sobre todo en los videojuegos.

El impacto visual del trazado de rayos en el mundo de los videojuegos es fantástico, pero el problema de vender esta tecnología, como decíamos en nuestra reflexión de hace semanas, es que el demonio está en los detalles.

Si no has visto una escena sin RTX y con RTX, es difícil que notes la revolución que plantea esta tecnología en ámbitos como en los videojuegos, en los que el realismo gana muchos enteros en el tratamiento por ejemplo de reflejos, luces y, sobre todo, sombras.

Sombras que antes no aparecía, sombras "difusas" mucho más realistas, el impacto de la luz de forma adecuada en personas y objetos... todo esto es algo que se aprecia una vez "enciendes y apgas el interruptor RTX" en imágenes como estas. El juego ya es bueno sin RTX, sí. Pero con RTX es claramente mejor.

La presentación de las gráficas de NVIDIA suscitó polémica por esa atención a un raytracing que desde luego plantea mejoras visuales fantásticas, pero que también impactará en el rendimiento de los videojuegos: esta sigue siendo una tarea intensiva.

Aquí son los desarrolladores —algunos ya lo han hecho, y 'Battlefield V', 'Metro: Exodus' o 'Shadow of the Tomb Raide' son buenos ejemplos— los que tendrán en su mano aprovechar una tecnología revolucionaria, pero como dijimos en nuestra anterior reflexión, hay que darle tiempo al tiempo: no todos los juegos la aprovecharán de momento y aunque el impacto visual es notable, es evidente que muchos jugadores (si no todos) prefieren no sacrificar fluidez a costa de ese mayor realismo.

Y sin embargo, el trazado de rayos está aquí para quedarse: NVIDIA lo tiene claro.

Una revolución que va más allá del "quiero más FPS"

La arquitectura Turing plantea por lo tanto una revolución notable en su concepción de sus núcleos de proceso, que ahora van más allá de lo que teníamos en Pascal y permiten integrar ya como protagonistas a los ámbitos de la inteligencia y artificial y el trazado de rayos.

"Ya, pero yo solo quería poder jugar con más fotogramas por segundo y a más resolución", dirán muchos. No tenemos aún pruebas propias que compartir, pero los resultados de NVIDIA hablan de que precisamente eso es lo que también logramos con las NVIDIA GeForce RTX 2000.

De hecho, este es un más y mejor en todos los apartados, o al menos eso es lo que prometen en NVIDIA. Los precios de estas tarjetas han generado también un acalorado debate: las RTX 2070 parten de los 639 euros, mientras que las RTX 2080 partirán de los 849 y las RTX 2080 Ti tendrán un precio de partida de 1.259 euros.

Es desde luego un coste elevado que representa un salto importante, pero la prometedora arquitectura Turing ofrece mucho más que lo que ofrecían las gráficas hasta la fecha, centradas específicamente en el ámbito de los videojuegos. NVIDIA espera que con Turing hagamos mucho más y lo hagamos mucho mejor.

Las herramientas están ahí: ahora solo queda que desarrolladores las pongan en manos de los usuarios para que podamos valorar si esos precios responden a esas prestaciones. Y en muchos apartados, y especialmente en el del trazado de rayos, es aún pronto para poder decidir el verdadero impacto para los usuarios. Como mínimo, una recomendación: concedámosle a esta ambiciosa arquitectura el beneficio de la duda.

Y esperemos a esas pruebas de rendimiento, claro: en unos días contaremos por fin con los análisis de rendimiento con los que ya tendremos una primera parte de la ecuación resuelta.

Ver todos los comentarios en https://www.xataka.com.co

VER 0 Comentario

Portada de Xataka Colombia