Google DeepMind nos dejó a todos impresionados cuando logró ganar a Go a uno de los mejores jugadores del mundo en esta disciplina. La inteligencia artificial desarrollada por este fabricante lograba un hito que se estimaba que no se alcanzaría hasta dentro de una década, y pronto surgieron comentarios sobre cuál sería el próximo reto de esta plataforma.
Los propios responsables de DeepMind indicaron que juegos de estrategia como StarCraft podrían ser candidatos, y ahora los responsables de Blizzard Entertainment, creadores de StarCraft, han indicado que han contactado con Google para organizar una competición. Según estos expertos la plataforma de Google tiene una desventaja clara: que no sabe mentir.
Un juego muy distinto al ajedrez o el Go
StarCraft es uno de los juegos más populares en las competiciones eSports y uno de los títulos que más triunfan en el mundo del juego online. En ese juego los jugadores cogen una de las tres razas disponibles en el juego y utilizan sus distintos tipos de unidades y capacidades para tratar de exterminar a sus contricantes y hacerse con sus cuarteles generales. Otra diferencia: no hay turnos.
Para muchos expertos en inteligencia artificial eso hace aún más difícil evaluar cada partida, con infinitas posibilidades y estrategias que podrían ser una dificultad seria para motores como el de DeepMind.
Google no ha confirmado cuál será el próximo reto de DeepMind así que no queda claro si un combate de este tipo finalmente se organizará, pero por ejemplo tanto Facebook como Microsoft están trabajando en proyectos de inteligencia artificial -aún en fases muy prematuras- que precisamente tratan de jugar a StarCraft.
La incertidumbre como elemento clave
Al contrario de lo que ocurre con el ajedrez o el Go, otra de las cosas que diferencia a StarCraft es el hecho de que en las partidas uno "no ve todo el tablero". Hay un elemento importante de incertidumbre que hace que los jugadores tengan que enviar unidades para explorar terrenos que no aparecen y localizar así a sus oponentes.
Eso es precisamente uno de los pilares de la estrategia de los jugadores, que aprovechan esa incertidumbre a su favor para tratar de engañar a los rivales. Se pueden echar faroles durante el desarrollo del juego que hagan que una zona del mapa parezca concentrar los esfuerzos de uno de los jugadores cuando en realidad sus ataques o defensas se centran en un área distinta.
Michael Mohrhaime, uno de los cofundadores de Blizzard Entertainment, explicaba que "dar información o pistas falsas es una estrategia muy avanzada, así que sería impresionante ver a un ordenador hacerlo". Eugene Kim, un jugador surcoreano considerado el mejor del mundo, explicaba que tirarse faroles es una de las claves del juego, y no creía demasiado factible que fuera posible enseñar a una máquina a mentir.
¿Pueden las máquinas mentir?
Algunos expertos en seguridad artificial creen que al final para la máquina esa técnica será otra forma de ganar el juego entre otras muchas. David Churchill, de la Universidad de Alberta, explicaba que "cuando la inteligencia artificial descubra que la única forma de ganar es demostrar su fortaleza, lo hará. Si a eso le llamas tirarse un farol, entonces la IA es capaz de ello".
Esa afirmación se refuerza cuando uno recuerda experimentos como el del Laboratorio de Sistemas Inteligentes del Ecole Polytechnique Fédérale of Lausanne, en Suiza. Los responsables de este laboratorio realizaron un experimento con un conjunto de 1.000 pequeños robots divididos en 10 grupos. El objetivo era que cooperaran para buscar un recurso beneficioso para ellos pero que lo hicieran además evitando recursos "negativos".
Tras entrenar a estos grupos de robots y dar puntos positivos o negativos según se acercaran al recurso beneficioso o al que no lo era se fueron detectando cambios importantes en la forma en la que los robots se comunicaban (encendiendo una luz cuando encontraban el recurso positivo) y actuaban. El problema es que el acceso al recurso positivo era limitado, lo que hacía que no todos los robots pudieran beneficiarse de él. Eso dio lugar a una mutación singular:
Tras 500 iteraciones, el 60% de los robots habían evolucionado de forma que mantenían su luz apagada cuando encontraban el recurso positivo, quedándose ese recurso para ellos solos. Más aún, una tercera parte de los robots evolucionó para buscar a los mentirosos desarrollando una especie de aversión a la luz, que era justo el objetivo opuesto al de su programación original.
Teniendo en cuenta esto, no parece improbable que las máquinas, efectivamente, puedan aprender a mentir. Y es como indicaba Churchill, lo de tirarse faroles a StarCraft no será mentir para las máquinas. Será una estrategia más que les permitirá cumplir su objetivo: ganar el juego.
En Xataka | De ajedrez, máquinas y humanos