Si alguno ha leído 'The Intel Trinity' se sabrá al dedillo la historia de los ocho traidores y cómo aquel suceso provocó la gestación de la empresa que dominaría la empresa de semiconductores durante las siguientes cinco décadas. En esa historia, como en tantas otras, hay un bueno (Bob Noyce), un feo (Gordon Moore) y un malo (Andy Grove), y lo curioso es que solo uno de ellos, "el feo", supo ver realmente el futuro. Y ese futuro estaba en los microprocesadores.
Eso fue a principios de los 70. Tras varios años creciendo gracias a ellas, el negocio de las memorias ya no era rentable, así que Grove decidió apostar por un segmento al que casi nadie prestaba atención. Los microprocesadores, se dijo, podían ser el futuro. Acertó, claro, y eso llevó a Intel a liderar un mercado que se le escaparía 20 años más tarde. Otellini se vio en un cruce de caminos similar, pero se confió. Los dispositivos móviles no eran competencia, pensó. Aquella decisión le ha costado mucho a esta empresa. Entre otras cosas, acaba de anunciar el despido de 12.000 de sus empleados en los próximos 12 meses.
Una apuesta que salió realmente bien
Andy Grove -recientemente fallecido- es considerado por muchos como el mejor CEO de una empresa tecnológica en toda la historia. Lo sitúan incluso por encima de Steve Jobs, por ejemplo- -que por cierto, le tenía como uno de sus mentores- y los argumentos son claros. Grove tenía también un peculiar estilo de gestionar Intel, pero lo que es evidente es que si hay que echarle la culpa a alguien del éxito de Intel en el último cuarto del siglo pasado, es a Grove.
Grove no fundó Intel, pero como cuenta ese libro -algo decepcionante en mi opinión- sí fue el primer empleado oficial de la empresa. Aunque Bob Noyce tenía su particular "campo de distorsión" -era un líder natural, dicen quienes trabajaron para él y le conocieron- y Gordon Moore era un ingeniero brillante -ha pasado a la historia por su célebre ley- Grove era un líder hecho a sí mismo y que tenía muy claro lo que quería y hacia dónde debía dirigirse la compañía. Como explicó en su libro 'Only the paranoid survive':
Intentamos un montón de cosas. Intentamos enfocarnos en un nicho del segmento de mercado de las memorias, intentamos crear memorias de propósito especial llamadas diseños de valor añadido, presentamos tecnologías más avanzadas y desarrollamos memorias con eellas. Lo que tratábamos de hacer desesperadamente era ingresar una cantidad extra por nuestro producto en el mercado ya que no podíamos competir con la espiral de precios decrecientes del mercado japonés.
Puede que Grove simplemente tuviera suerte. Las circunstancias eran distintas, desde luego. Los japoneses se habían convertido en unos competidores demasiado feroces en el ámbito de las memorias que Intel había logrado dominar durante años, y era evidente que su futuro era comprometido en ese mercado. Estancarse era un suicidio, así que Grove lo apostó todo a los microprocesadores, un segmento en pañales que ni siquiera había demostrado su validez en una época en la que aquellos chips estaban destinados a calculadoras o a ordenadores dirigidos a entornos científicos, militares o académicos.
La microinformática comenzaba a despuntar, y fue entonces cuando la actuación de Grove fue estratégica para conseguir el acuerdo con IBM que convertiría a su empresa en referente absoluto en un mercado en el que llevaba trabajando más de una década. Las memorias habían seguido siendo pilar fundamental de su negocio, pero era evidente que aquel Intel 4004 -el primer procesador monolítico de la historia- cambiaría el destino de Intel... y de nuestro mundo.
Aquello supuso el despegue definitivo de la informática de sobremesa y de esa "era PC" que nos acompañó durante décadas. Y entonces llegó Apple, que en 2007 demostró que el mundo había cambiado, y con él, nuestra forma de gestionarlo. Había llegado el smartphone, y a Intel se le había escapado la oportunidad de dominar también ese segmento.
El error más grave de la historia de Intel
Apple ya había firmado un acuerdo con Intel para que sus procesadores fueran la base de sus nuevos equipos. La era PowerPC había acabado, y Apple tuvo el acierto de dar el salto a la arquitectura x86 que tenía mucho más sentido de cada al futuro.
Aquella alianza -por lo que dicen Grove fue fundamental para llegar a ese acuerdo con Jobs- supuso un nuevo éxito para Intel, a la que se le ofreció formar parte de una nueva era en los iPhone. Otellini decidió que aquello no compensaba:
Acabamos por no ganarlo o por pasar de ello, según como quieras verlo. Y el mundo podría haber sido totalmente distinto si lo hubiéramos hecho. Lo que es necesario recordar es que esa decisión se tomó antes de que el iPhone se presentara y nadie sabía lo que el iPhone haría... Al final lo único que sabíamos es que estaban interesados en un chip y querían pagar cierto precio por él, pero ni un céntimo más, y ese precio estaba por debajo de nuestros costes estimados. Yo no pude verlo. No fue una de esas cosas que podías hacer en volumen. A posteriori el coste estimado era erróneo, y el volumen fue 100 veces superior al que cualquiera hubiera imaginado.
A toro pasado es evidente que aquel fue el error más grave de la historia de Intel, pero lo cierto es que cualquier en la posición de Intel probablemente hubiera dudado mucho en dar un paso que era como saltar al vacío. La situación era totalmente distinta: el mercado del PC no hacía más que crecer y la compañía dominaba con solvencia en un terreno al que le parecía quedar cuerda para rato. ¿Por qué arriesgar y perder dinero cuando los móviles que existían en el mercado no eran gran cosa?
El problema de no acertar con la bola de cristal
Intel se dio cuenta de su error en cuanto apareció el iPhone, por supuesto. La empresa había vendido XScale en 2006, la división que producía sus chips ARM, y lo hizo pensando que efectivamente los procesadores basados con arquitectura ARM no tenían futuro. Aquellos micros habían sido usados en muy pocos productos (algunos Pocket PCs) y básicamente era una división en la que el dinero se les escapaba entre las manos.
Así que cerraron ese capítulo y ahora sí, se convirtieron en unos cabezones. Lo que ofrecía ARM no era comparable a las ventajas de sus micros x86, decían algunos ejecutivos menores de Intel que luego tuvieron que comerse sus palabras. En concreto, de sus Atom, que comenzaron a tratar de conquistar el mercado en algunos dispositivos basados en Windows Mobile, en Moblin -aquel sistema operativo que en 2011 quería dar el salto a smartphones y que derivaría en MeeGo- o en Android.
Lo cierto es que los diseños de ARM iban dejando claro que su carrera de abajo hacia arriba era mucho más coherente para dispositivos móviles. Aquellos primeros micros se centraban en la eficiencia, un parámetro en el que los Intel Atom no pudieron competir hasta mucho más adelante. Los posteriores diseños de ARM fueron ganando en prestaciones sin comprometer la potencia, y eso hizo que entre otras cosas Intel también perdiera otro de los acuerdos que podría haberle dado margen en ese mercado: los iPad también pasaron de los Atom de la familia Silverthorne, que parecían los más adecuados para ese tipo de dispositivos.
Eso tuvo un precio importante para Intel, que se estima que perdió 7.000 millones de dólares en forma de subsidios para lograr que fabricantes de tablets "baratos" montaran sus Intel Atom en lugar de chips ARM de otros fabricantes. Otellini tuvo que relajar su optimismo en el mercado de los tablets, para el que estaba claro que la batalla también parecía perdida.
La "era post-PC" puede ser una farsa, pero no para Intel
Muchos no nos creemos eso de que estamos ante la era post-PC. Simplemente estamos ante un nuevo paradigma en el que el PC no es para mucha gente el PC de sobremesa, sino su smartphone o su tablet. El problema es que esa era post-PC sí que ha afectado gravemente a Intel, que cometió un error enorme al depositar todas sus esperanzas en un segmento que sigue desacelerando.
Eso ha tenido otra consecuencia fatal: el anuncio de ayer en el que la compañía revelaba que en los próximos 12 meses recortaría su plantilla en un 11%. Eso significa que 12.000 empleados de Intel en todo el mundo dejarán de serlo a mediados de 2017.
Para Intel la estrategia ahora es una foto de lo que está pasando en el mercado: se aleja sensiblemente de su foco de atención tradicional, el PC y el portátil de toda la vida, y se centra en lo que da beneficios -CPUs para máquinas destinadas a centros de datos- y en lo que podría darlos (Internet de las Cosas).
Es difícil saber si esa apuesta por la Internet de las Cosas da el resultado esperado por Intel, pero lo cierto es que la empresa vuelve a encontrarse en una encrucijada. Brian Krzanich, CEO de la compañía, no está en una posición fácil, y ahora queda por ver si la incertidumbre que rodea a ese futuro hiperconectado favorece o no a una empresa que logró acertar sobre el futuro pero que luego se equivocó. ¿Qué tocará esta vez?
En Xataka | Las 3 tecnologías clave para el Internet de las cosas