Aunque no se le ha dado el bombo que merece, toda la industria es conocedora de que Google está desarrollando su propio hardware: procesadores con los que acelerar algoritmos que trabajan la inteligencia artificial y el ‘aprendizaje máquina’.
Este nuevo procesador de Google fue presentado el año pasado durante el evento para desarrolladores Google I/O. Responde al nombre de Tensor Processing Unit - TPU - y desde entonces no hemos tenido más detalles sobre él.
Google, como todas las compañías que quieren marcar diferencias en optimización y rendimiento, tienen que crear soluciones adaptadas a las nuevas necesidades y tareas. Estos chips serán los encargados de dar vida a TensorFlow, la biblioteca de código abierto para aprendizaje automático de Google.
TPU, para consumo propio
Que la gestión de nuestras fotos, el correo o el asistente de Google sea más efectiva, depende de estas TPUs
Asegura que su sistema de procesadores es capaz de conseguir un rendimiento entre 10 y 30 veces superior al que ahora mismo ofrecen componentes convencionales - Intel Haswell con Nvidia K80 -.
La mejora no implica gastar más energía, ni generar más calor, dos puntos importantes de cara a su su instalación en centro de datos.
La idea de Google es la de usar este hardware para consumo interno, para su nube de datos, no tiene previsto vender la solución a terceros - tampoco licenciar la tecnología -. Sí esperan que otros sigan sus pasos con desarrollos parecidos y les ayuden a subir el nivel.
Otro punto a destacar sobre las TPU es que son fácilmente escalables, lo que permite tener servidores impulsados por varios TPU. Los procesadores son de tipo ASIC: Circuito Integrado para Aplicaciones Específicas.
Para aquellos que quieran saber más, hay un documento muy enfocado a los diseñadores de procesadores, yo me pierdo en esos niveles. De ahí salen diagramas y gráficas como estas: