🇨🇴En nuestro WhatsApp siempre hay algo bueno📲

¿Por qué un juego de realidad virtual de Oculus pide un PC mucho más potente que un juego normal?

La realidad virtual va a suponer una inversión de dinero importante, no solo en las Oculus Rift a las que ya ha puesto precio, sino también en el PC al que conectaremos estas gafas de RV para disfrutar de esas prometedoras experiencias.

Los responsables técnicos de Oculus ya explicaban hace meses cuáles serían los requisitos mínimos de esos PCs, pero tras conocer el precio de las Rift ahora nos preguntamos por qué la realidad virtual es tan exigente. ¿Por qué se necesitan muchos más recursos que con la mayoría de videojuegos tradicionales?

Simular un mundo virtual es todo un desafío técnico

Hace tiempo que sabemos la inversión que nos permitiría disfrutar de la experiencia que ofrecen las Rift de Oculus podría rondar los 1.400 euros, pero ese coste puede variar notablemente si ya tenemos un PC con parte de los componentes necesarios para garantizar un buen comportamiento de la experiencia de realidad virtual.

EVE: Valkyrie es uno de esos juegos que prometen demostrarnos realmente qué nos ofrece la realidad virtual

Los requisitos que marcaban los responsables de Oculus eran claros y sobre todo incidían en un apartado: el de la tarjeta gráfica. La potencia de este componente es clave fundamental para poder "mover" esos mundos virtuales con fluidez y con la suficiente precisión como para la sensación de presencia y de inmersión sea buena, pero como veíamos había otros factores relevantes:

Tarjeta gráfica

Equivalente o superior a una NVIDIA GTX 970 o una AMD R9 290

Procesador

Equivalente o superior a un Intel Core i5-4590

Memoria RAM

8 GB o superior

Puerto de salida

Salida de vídeo compatible con HDMI 1.3

Puertos de entrada

3 puertos USB 3.0 más un puerto USB 2.0

Sistema Operativo

Windows 7 SP1 de 64 bit o posterior

Como decimos, hay diversos requisitos técnicos que están orientados a un solo propósito: que la experiencia en esos mundos virtuales sea tan fluida como inmersiva, algo que hace necesario cumplir con unos mínimos en temas cruciales como la cantidad de información visual que se maneja por segundo, la monitorización y seguimiento de nuestros movimientos y sobre todo algo crítico: la latencia.

¿Por qué es necesaria tanta potencia?

Lo cierto es que la realidad virtual hace que en primer lugar sea necesaria una tasa de fotogramas más alta de lo normal para tener esa sensación de que todo es natural en esa interacción virtual. Eso no solo ayuda a ofrecer esa calidad en la inmersión, sino también a reducir la célebre sensación de mareo que era muy común en las primeras ediciones para desarrolladores de las Rift y que se ha mejorado gradualmente con cada nueva iteración.

La distinción es clara con respecto a los videojuegos para ordenador, en los que normalmente lograr tasas de 30 fotogramas por segundo se considera suficiente para lograr una experiencia notable. Es cierto que aquí impera el cuanto más mejor y que las potentes gráficas dedicadas logran que incluso en juegos exigentes a altas resoluciones las tasas de FPS sean mucho mayores y superen incluso los 30 fotogramas por segundo, pero este tipo de configuraciones solo suelen ser aprovechadas por los gamers. Este es de hecho un tema que suele generar mucha polémica entre aquellos que defienden esa PC Master Race que existe y que otros -los que se sitúan más al lado de las consolas- creen que es un poco cansina.

En Oculus, no obstante, no han querido arriesgar y por ello piden gráficas potentes que garanticen una tasa de fotogramas elevada incluso con la resolución y frecuencias de refresco que se utilizan en las dos pantallas que nos sirven de singular pantalla televisiva y que nos trasladan a esos mundos virtuales.

De hecho la resolución y las frecuencias de refresco se han ido mejorando conforme han ido llegando las distintas ediciones preliminares de estas gafas de realidad virtual. En las DK1 la resolución total era de 1.280 x 800 píxeles a 60 Hz, con un campo de visión de 110° mientras que en las DK2 teníamos una resolución total de 1.920 x 1.080 píxeles a 75 Hz con un campo de visión de 100°.

En las Rift en su versión final para consumidores (lo que en foros de discusión como Reddit suelen llamar "CV1") la mejora es sensible y llegamos a los 2.160 × 1.200 píxeles en total (1.080 x 1.200 píxeles por pantalla) a 90 Hz. Parte de que esperaban con ansias ese dato en la versión final se sintieron decepcionados porque esperaban el salto a una resolución 1.440p, pero como señalaban varios usuarios en Reddit aquí Oculus no ha querido comprometerse y ha tomado una decisión que permitirá garantizar la fluidez sin perjudicar de forma notable la calidad de la imagen.

Precisamente esa resolución y frecuencia de refresco hace que el PC que conectemos a las Rift necesite procesar alrededor de 233 millones de píxeles por segundo, pero si además tenemos en cuenta que se da soporte a 10 bits de color tenemos como resultado que la transferencia de datos es ingente: 7 Gbps.

Si comparamos ese dato con un juego "convencional" nos encontramos con que en una resolución 1080p un juego a 60 Hz requiere el procesado de 124 millones de píxeles por segundo. En realidad las Rift tienen que hacer aún más cálculos y como explicaban sus técnicos la cifra asciende a los 400 millones de píxeles por segundo, algo que según esos ingenieros representa tres veces la potencia necesaria para ejecutar con fluidez esos juegos 1080p en el PC con los que estamos comparando esos requisitos hardware. Como explicaban allí,

La buena realidad virtual estéreo con seguimiento posicional lleva tu sistema de percepción directamente a un entorno de formas que un monitor plano no puede hacer. Como consecuencia de ello, las técnicas de renderizado y la calidad importan más que nunca, y cosas que son imperceptibles en un monitor tradicional de repente marcan la diferencia cuando se experientan en RV. Es por esta razón por la que la RV incrementa el valor del rendimiento de la GPU.

Ese dato condiciona otra de las especificaciones de las que nos hablaba Oculus en sus requisitos técnicos: el uso del estándar HDMI 1.3 es suficiente para garantizar que la transmisión de datos será fluida, ya que esta versión del estándar soporta hasta 10,2 Gbps si uno incluye además el "overhead" de la codificación de color de 10 bits (8,16 Gbps sin incluirla). El estándar HDMI 1.4 mantiene ese dato, aunque mejora la resolución máxima para dar soporte a resoluciones 4K DCI (4.096 x 2.160 a 24 Hz, no confundir con UHD, que baja a los 3.840 x 2.160 píxeles y que toda la industria ha utilizado indistintamente de forma incorrecta)

De hecho aquí lo que quieren en Oculus es, sencillamente, cubrirse las espaldas. Por eso nos piden PCs que produzcan tasas de fotogramas por segundo iguales o superiores a las tasas de refresco de las pantallas de las Rift. Si no se lograra eso, el resultado serían fotogramas perdidos que pueden no notarse demasiado en un PC conectado a un monitor para juegos convencionales, pero que en las gafas de RV sí se notan y mucho. De hecho, pueden ser causantes de esos mareos y vértigos que pueden convertir la experiencia en algo incómodo.

No queda claro si las Rift simplemente se negarán a funcionar si no detectan el hardware adecuado -tenéis esta herramienta oficial que verifica si vuestro PC está preparado- pero parece improbable que las gafas no hagan nada en ese caso. Lo que sí es probable es que la experiencia que tengamos con un hardware inferior al recomendado sea pobre y decepcionante, algo que lógicamente quieren evitar en Oculus.

La lucha contra la latencia

Otro de los apartados clave en los que la potencia gráfica desempeña un papel fundamental es en la reducción de la latencia, que representa básicamente el tiempo de respuesta del sistema a nuestras acciones y movimientos. La reducción de la latencia es una de las batallas que libran los fabricantes de tarjetas gráficas, y esos tiempos de respuesta se unen a otras latencias, las de red, que hacen que desde que nuestras acciones se realizan hasta que llegan al servidor del juego online -por centrarnos en este terreno- causen tiempos de respuesta altos y aparezcan los temidos lags que perjudican la experiencia en juego online.

Si esas latencias son importantes en el juego tradicional, lo son aún más en el terreno de la realidad virtual, y hay dos documentos técnicos muy especializados y profundos que pueden ayudaros a comprender mejor el problema. El primero es de Mike Abrash, que trabajó en Valve hasta ser fichado como Chief Scientist en Oculus y que explicaba ya a finales de 2012 cómo la latencia era algo crítico en este campo:

¿Cuánta latencia es demasiada? Mucho menos de lo que imaginarías. Para tener una referencia, los juegos generalmente tienen una latencia desde el movimiento del ratón a la actualización de la pantalla de 50 ms o superiores (algunas veces muy superiores), aunque he visto cifras que rondaban los 30 ms para juegos simples a nivel gráfico que tenían tearing (esto es, con vsync desactivado). En comparación, puedo deciros que según mi experiencia personal más de 20 ms es demasiado para la RV y especialmente para la realidad aumentada, pero las investigaciones indican que la barrera podría estar en los 15 ms e incluso en los 7 ms.

El artículo de Abrash es como decíamos un referente técnico, pero si hay otro protagonista clave en esa lucha contra la latencia en realidad virtual ese es nada menos que el legendario John Carmack, que hace tiempo que también fichó por Oculus pero que antes de hacerlo publicó su "Latency Mitigation Strategies" -curiosamente el blog original ha desaparecido, pero es posible rescatar el artículo aquí-.

En aquel documento Carmack reflexionaba sobre distintos tipos de técnicas para afrontar el problema de la latencia, y él también reconocía que si la latencia en las gafas de realidad virtual era de 50 ms tendríamos un sistema con una respuesta decente, pero "con retrasos sutiles". Aún así, explicaba "la verdadera reducción de la latencia debería ser perseguida de forma agresiva" y de hecho esa ha sido una de las metas en cada nueva evolución de las Oculus cuyo desarrollo ahora lidera este legendario programador.

No se conoce aún de forma clara la latencia a la que han logrado llegar con esa última versión final para usuarios de las Rift (en las DK1 estaba entre 50 y 60 ms, y en las DK2 se estimaban latencias entre 20 y 40 ms), pero cuando el dispositivo esté por fin disponible físicamente será un buen momento de evaluar este parámetro con dispositivos como el propio "Latency Tester" desarrollado por Oculus y que ahora, irónicamente, está agotado. Si queréis investigar aún más en este tema, en el blog de Oculus tenéis un artículo más para explorar este concepto.

NVIDIA y AMD en la carrera por la realidad virtual

Ya hemos dejado clara la relevancia de los procesadores gráficos a la hora de ofrecer la mejor experiencia posible en el terreno de la realidad virtual, pero aquí no solo Oculus está trabajando para mejorar la fluidez y calidad de la inmersión: son también las grandes del desarrollo de gráficas dedicadas las que están poniendo mucha leña en el asador.

NVIDIA lleva tiempo trabajando en este ámbito y de hecho recientemente quisieron reafirmar su apuesta total por este segmento. En una entrevista para VentureBeat Jason Paul, responsable del área de RV en NVIDIA, explicaba su visión de un mercado aún está en pañales. Aunque como siempre ocurre haya que coger sus comentarios con pinzas, había datos curiosos, y por ejemplo Paul revelaba que existen tan solo 13 millones de PCs (con gráficas NVIDIA dedicadas, se entiende) preparados para disfrutar de la experiencia que proponen en Oculus.

Los demás, afirman en NVIDIA, tendrán que ir actualizándose e ir adquiriendo tarjetas más potentes que evidentemente este directivo esperaba qeu fueran de su firma. Para defender sus argumentos explicaba el compromiso de NVIDIA con las tecnologías de realidad virtual y hablaba de GameWorks VR, un conjunto de librerías y APIs dirigidas a los desarrolladores y que permiten acceder a nuevas técnicas para lograr optimizar la experiencia de RV a través de esas gráficas.

Entre las posibilidades que ofrecen en NVIDIA están tanto la llamada VR SLI (es decir, aprovechar tu configuración SLI para esa experiencia de realidad virtual) como la prometedora tecnología Multi-Res Shading, dirigida a aprovechar la arquitectura Maxwell para sobre todo lograr más con menos: mayor eficiencia a través de un sistema de renderización de los mundos virtuales que combina la forma en la que trabaja el renderizado de los escenarios, personajes y objetos virtuales con el mundo de la óptica.

Como dicen en NVIDIA, en un renderizado de RV clásico se "dibujan" muchos pixeles que en realidad nunca llegan a la pantalla, y este sistema optimiza el uso de las GPUs para que estos procesadores trabajen donde se les necesita. Tenéis una explicación más profunda de la propuesta de NVIDIA en AnandTech.

Evidentemente en AMD no quieren quedarse atrás, y sus responsables también quieren defender su propuesta, llamada LiquidVR. En ella AMD trata de mejorar el soporte de la experiencia VR a través de tres pilares: el confort (reducir la latencia y mejorar el seguimiento del movimiento de nuestra cabeza), la compatibilidad para trabajar con todo tipo de gafas de RV, y los contenidos que puedan reproducirse y disfrutarse en entornos multi-GPU (CrossFire).

Hay varios componentes y tecnologías implicadas en todas esas mejoras, pero una de las más llamativas es la llamada Affinity Multi-GPU, que permite asignar una GPU por cada ojo cuando disponemos de un sistema CrossFire con dos tarjetas de AMD conectadas y trabajando de forma simultánea.

Este tipo de solución haría que cada tarjeta se encargase literalmente de cada ojo -o más bien, de cada pantalla- para lograr optimizar esa experiencia de usuario. Será interesante ver cómo se comporta en realidad, pero si queréis ir abriendo boca podéis explorar de nuevo el artículo técnico que realizaron en AnandTech y que habla más en detalle de todos esos conceptos.

Conclusiones

Aunque hay otros requisitos técnicos, y por ejemplo está el hecho de "obligarnos" a tener puertos USB 3.0 en nuestros ordenadores cuando los puertos USB 2.0 parecían perfectamente capaces de llevarnos a mundos virtuales en las Oculus DK1 y DK2. Aquí de nuevo lidiamos con ese intento de Oculus de tener margen de maniobra: el ancho de banda del estándar USB 3.0 permite que no haya potenciales cuellos de botella en este apartado a la hora de utilizar por ejemplo la cámara que sigue nuestros movimientos o incluso al del mando de control o los futuros Oculus Touch que aparecerán en la segunda mitad de 2016.

Así pues, nos encontramos con una filosofía en la que Oculus quiere asegurarse de que cuando disfrutemos de la realidad virtual, lo hagamos con las máximas garantías. Los responsables de esta firma han aclarado que esos requisitos mínimos no cambiarán con el tiempo y que por lo tanto el coste para cumplir con esas especificaciones se reducirá con la inexorable rebaja de los componentes con el tiempo, así que aunque en la actualidad acceder a este hardware tiene un coste elevado, hacerlo en los próximos meses -y años- será menos costoso.

Lo que parece evidente es que las comparaciones entre los videojuegos y contenidos de los que disfrutamos ahora mismo y los que nos propone el segmento de la realidad virtual son muy distintos. Estos últimos añaden una complejidad importante que seguramente sea cada vez más asumible por hardware más económico, pero hoy por hoy la conclusión es clara: para disfrutar de la realidad virtual necesitarás potencia, y mucha.

En Xataka | ¿Quién se está quedando fuera de la realidad virtual?

Ver todos los comentarios en https://www.xataka.com.co

VER 0 Comentario

Portada de Xataka Colombia