Crear videojuegos con inteligencia artificial es algo que cuenta con tanto potencial como desafíos, tanto técnicos y éticos. Sin embargo, el avance de esta tecnología no para, al menos para Microsoft que presentó una versión jugable del legendario Quake II, generada íntegramente mediante IA generativa.
Se trata de una experiencia que replica una sección de este clásico accesible desde este enlace, que resulta ser una demostración técnica por el equipo de Copilot Labs y forma parte de un proyecto más amplio de investigación sobre modelos generativos para videojuegos, impulsado por su arquitectura WHAMM (World and Human Action MaskGIT Model).
Esta arquitectura permite una experiencia interactiva en tiempo real al generar visuales a más de 10 cuadros por segundo. Y a diferencia de versiones anteriores, que solo podían producir una imagen por segundo, WHAMM mejora la velocidad de generación y la calidad visual, alcanzando una resolución de 640×360 píxeles.
Según la compañía, esto permite "jugar dentro del modelo", una aproximación experimental que no busca replicar un videojuego en sentido tradicional, sino demostrar la capacidad de un modelo de IA para simular dinámicas interactivas en tiempo real.
Así funciona el Quake II generado por IA

Para construir esta versión, los investigadores entrenaron el modelo Muse utilizando datos de un nivel específico de Quake II, una propiedad de Microsoft desde la adquisición de ZeniMax Media.
El resultado permite al usuario desplazarse por el entorno, mover la cámara, saltar, agacharse, disparar y detonar barriles. La interacción es breve: se puede jugar por algunos minutos antes de alcanzar el límite temporal de la demo.
No obstante, Microsoft subraya que se trata de una "exploración de investigación" y que la experiencia debe interpretarse como una simulación basada en IA más que como una reproducción del juego original.
Entre las limitaciones reconocidas por los desarrolladores, se encuentran, enemigos representados de forma imprecisa o “borrosa”, contadores de daño y salud inexactos y dificultades con la permanencia de objetos.
De hecho, el modelo tiende a “olvidar” elementos del entorno si no están en la línea de visión durante más de 0,9 segundos.
Estas limitaciones, aunque técnicas, producen situaciones que los investigadores describen como "curiosas", como eliminar enemigos simplemente mirando hacia el piso y luego al frente, o teletransportarse en el mapa mirando al cielo y de regreso.
Sin embargo, para otros, estos efectos evidencian una brecha significativa entre lo que propone la tecnología y lo que realmente ofrece en términos de experiencia lúdica.
Reacciones mixtas desde la comunidad gamer

La demo no tardó en generar respuestas en la comunidad de desarrolladores y jugadores. El diseñador de videojuegos y escritor Austin Walker compartió su experiencia a través de un video en el que quedó atrapado en una habitación oscura durante gran parte del tiempo, lo que también le ocurrió a otros usuarios.
Walker cuestionó la afirmación reciente de Phil Spencer, CEO de Microsoft Gaming, quien sostuvo que los modelos de IA podrían contribuir a la preservación de videojuegos clásicos, haciéndolos portables a múltiples plataformas.
Para Walker, esta idea ignora los elementos esenciales que hacen que un videojuego sea funcional y memorable: el código, el diseño, los gráficos, el audio y sus interacciones. Según argumentó, la imposibilidad de reconstruir con precisión esos componentes internos conduce a una experiencia alejada del original y sin el valor lúdico que ofrecen las situaciones imprevistas o límites del diseño original.
Y aunque el experimento de Microsoft no busca sustituir el desarrollo tradicional de videojuegos, sí plantea preguntas relevantes sobre el futuro de los juegos generados por IA y su aplicación en procesos creativos, educativos o de conservación digital. También evidencia las dificultades actuales para trasladar la complejidad del diseño de videojuegos a entornos controlados por modelos generativos.
Entrar y enviar un comentario