Mira en el video - DEEPMIND

La Inteligencia Artificial da un nuevo salto: da una paliza a los humanos en el videojuego «Starcraft II»

Los nuevos algoritmos de AlphaStar, preparados por una filial de Google, DeepMind, permitieron derrotar a los expertos humanos de deportes electrónicos

MADRIDActualizado:

La herramienta de Inteligencia Artificial (IA) desarrollada por DeepMind, compañía filial de Google, ha logrado derrotar por primera vez a dos campeones de deportes electrónicos o eSports, tras aprender a jugar al videojuego StarCraft II».

A través de un programa denominado AlphaStar, DeepMind ha desarrollado una red profunda de aprendizaje neuronal entrenada directamente a través de datos en bruto de «StarCraft II», como ha explicado la compañía de Google en un comunicado.

En una serie de pruebas que tuvieron lugar el pasado 19 de diciembre, AlphaStar logró vencer al jugador polaco Grzegorz «MaNa» Komincz y su compañero, el alemán Dario «TLO» Wünsch, ambos miembros del equipo profesional Team Liquid. Esta partida tuvo lugar en un mapa competitivo del juego y sin restricciones de reglas.

Un gran «desafío»

La saga de videojuegos StarCraft, de estrategia en tiempo real y desarrollada por Blizzard, era considerada por DeepMind como un «gran desafío» debido a la complejidad del juego, a su mecánica y a la amplitud de los mapas, lo que complica entrenar a sistemas automáticos para resultar competitivos.

Para entrenar a su IA, DeepMind ha utiliza datos en bruto de la interfaz de «StarCraft II» a través de dos técnicas conocidas como aprendizaje supervisado y aprendizaje reforzado. La red neuronal convierte las unidades del juego y utiliza un núcleo de memoria LSTM que proporciona soporte para aprendizaje a largo plazo.

El algoritmo de Google un algoritmo de aprendizaje múltiple que se ha empleado inicialmente para entrenar la red neuronal de AlphaStar a través del aprendizaje supervisado, con el que aprende de jugadores humanos de otros videojuegos de Blizzard y de su sistema de economía «macro» y de recursos «micro». Con estas técnicas, ha derrotado el 95% de ocasiones a la dificultad elite de los juegos del estudio.

Posteriormente, los investigadores sometieron a AlphaStar a un proceso de aprendizaje reforzado, para el que se creó una liga continua de «StarCraft II» con jugadores reales compitiendo, que creaba un mapa global con las estrategias escogidas por las personas. Posteriormente, AlphaStar analizaba el porcentaje de éxito de cada estrategia y sus posibles tácticas de contraataque. Con la liga de StarCraft, AlphaStar ha acumulado una experiencia de más de 200 años de juego real, sumada durante 14 días.

El sistema de Google consiguió vencer a los profesionales «MaNa» y «TLO», algo que sucede por primera ocasión con jugadores de «eSports» o deportes electrónicos según DeepMind, y además con un resultado de 5-0. Para ello aprovechó una mayor media de acciones por minuto, de decenas de miles frente a cientos, y se sobrepuso a limitaciones del algoritmo como un retraso de 350 milisegundos entre observación y acción. Las pruebas actuales de DeepMind con «StarCraft II» no son las primeras de la IA de Google con videojuegos, que ya juega a otros títulos como «Dota 2», y, desde el pasado verano, también a «Quake III» en el modo «Captura la bandera».