Jensen Huang se quiere cargar la ley de Moore. No es el primero que afirma que dicha ley ha muerto, y probablemente no será el último, pero el argumento de Huang tiene un epílogo: que esa ley ha muerto, pero que la GPU está ahí para salvar a la CPU y acabar "sustituyéndola".
La ley de Moore establece que el número de transistores en un procesador se dobla más o menos cada dos años. Aunque el número de transistores en los microprocesadores ha crecido un 50% al año, su rendimiento solo ha crecido un 10%. Es ahí donde entra una GPU cada vez más aceptada en terrenos como la inteligencia artificial, afirma Huang, y muchos seguramente se preguntarán si esa GPU puede realmente sustituir a la CPU. En realidad ya lo está haciendo, pero hay matices importantes.
Según NVIDIA, las GPUs ganan terreno a las CPUs
Huang lanzó tales afirmaciones durante la GPU Technology Conference China 2017 que se está celebrando en Beijing, pero en Intel hace tiempo que han dejado claro que la ley de Moore sigue muy viva.
Brian Krzanich comentaba en abril de 2016 cómo la evolución de los 14 a los 10 nm continuará con micros que estarán fabricados en litografías de 7 e incluso en 5 nanómetros harán que esa ley mantenga su validez a corto e incluso medio plazo.
Es cierto que a Intel le está costando más de lo que esperábamos dar esos saltos, pero lo cierto es que el mundo de los procesadores se ha vuelto a animar gracias a esa renovada AMD que con sus Ryzen y sus Threadripper ha reavivado la competencia entre ambas empresas.
De hecho a Huang no debe haberle sentado del todo bien la decisión de Tesla: esta semana se ha anunciado que el fabricante de coches eléctricos había decidido cambiar sus procesadores NVIDIA por unos de Intel para sus sistemas de infoentretenimiento, algo que no parece dar tantos argumentos en un área como el de la inteligencia artificial que comienza a ser protagonista absoluta en los sistemas de conducción autónoma de estos coches.
¿Es posible un ordenador basado únicamente en una GPU?
Lo cierto es que no. Las GPUs son procesadores altamente especializados, mientras que las CPUs son microprocesadores de propósito general. Aunque poco a poco se han ido adaptando algunas tareas para que sean computadas por la GPU (de ahí la rama GPGPU -> General Purpose Computing on Graphics Processing Units), la aplicación de la GPU a tareas de propósito general está restringida a ámbitos en los que el paralelismo es absoluto protagonista. Ejemplo claro de la actualidad: la minería de criptomonedas.
De hecho eso es lo que ha hecho NVIDIA con su Project Denver, emparejando una pequeña CPU ARM de doble núcleo con una solución GPU de la familia Kepler (ni siquiera Pascal). El proyecto tuvo aplicación práctica en las tabletas Nexus 9 de Google, y posteriormente NVIDIA ha desarrollado otros micros como el Tegra X1 que seguían esa misma filosofía en la que al final, insistimos, no se prescinde de la CPU.
De hecho Jensen Huang ni siquiera planteaba una sustitución total de las CPUs actuales, y se refería solo a campos específicos en los que efectivamente la potencia bruta de las GPUs está siendo muy bien aprovechada.
Ámbitos como la citada inteligencia artificial, el aprendizaje automático o la computación en la nube está haciendo que esa computación GPGPU esté ganando enteros y las soluciones basadas en procesadores gráficos estén teniendo un éxito notable, y de hecho NVIDIA está apostando cada vez más por esos segmentos con chips específicamente destinados a estos ámbitos.
De ahí a prescindir de la CPU, eso sí, media un mundo.
En Xataka | De nanómetros, miniaturización y ley de Moore: el futuro de los transistores