Crédito:Hutsuliak Dmytro/Shutterstock
Hace algunos años, el sitio web de ajedrez Chess.com prohibió temporalmente al gran maestro estadounidense Hans Niemann por jugar jugadas de ajedrez en línea que el sitio sospechaba que le había sugerido un programa de computadora. Según los informes, había prohibido previamente a su mentor Maxim Dlugy.
Y en la Copa Sinquefield a principios de este mes, el campeón mundial Magnus Carlsen renunció sin comentarios después de jugar un mal partido contra Niemann, de 19 años. Desde entonces ha dicho que esto se debe a que cree que Niemann ha seguido haciendo trampa recientemente.
Otro participante, el gran maestro ruso Ian Nepomniachtchi, calificó la actuación de Niemann como "más que impresionante". Si bien Nieman ha admitido haber hecho trampas en ocasiones en juegos en línea anteriores, ha negado rotundamente haber hecho alguna vez trampas en un torneo de ajedrez en vivo.
Pero, ¿cómo decide Chess.com, el sitio web de ajedrez más grande del mundo, que un jugador probablemente ha hecho trampa? No puede mostrarle al mundo el código que usa, o los posibles tramposos sabrían exactamente cómo evitar la detección. El sitio web afirma:"Aunque las consideraciones legales y prácticas impiden que Chess.com revele el conjunto completo de datos, métricas y seguimiento utilizados para evaluar los juegos en nuestra herramienta de juego limpio, podemos decir que el núcleo del sistema de Chess.com es un modelo estadístico que evalúa la probabilidad de que un jugador humano acierte las mejores opciones de un motor y supere el juego limpio confirmado de algunos de los mejores ajedrecistas de la historia".
Afortunadamente, la investigación puede arrojar luz sobre qué enfoque puede estar utilizando el sitio web.
Humanos contra IA
Cuando la empresa de inteligencia artificial DeepMind desarrolló el programa AlphaGo, que podía jugar el juego de estrategia Go, se le enseñó a predecir qué movimientos haría un humano desde cualquier posición determinada.
Predecir los movimientos humanos es un problema de aprendizaje supervisado, el pan y la mantequilla del aprendizaje automático. Dados muchos ejemplos de posiciones de juegos humanos (el conjunto de datos) y un ejemplo de un movimiento humano desde cada una de esas posiciones (la etiqueta), los algoritmos de aprendizaje automático se pueden entrenar para predecir etiquetas en nuevos puntos de datos. Así que DeepMind le enseñó a su IA a estimar la probabilidad de que un humano hiciera cualquier movimiento dado desde cualquier posición dada.
AlphaGo venció a su famoso rival humano Lee Sedol en 2017. Uno de los movimientos famosos de la IA en el juego fue el Movimiento 37. Como señaló el investigador principal David Silver en el documental AlphaGo, "AlphaGo dijo que había una probabilidad de 1/10,000 de que el Movimiento 37 hubiera sido jugado por un jugador humano".
Entonces, de acuerdo con ese modelo de aprendizaje automático de jugadores humanos de Go, si vieras a una persona jugar Move 37, sería evidencia de que no se les ocurrió la idea. Pero, por supuesto, no sería una prueba. Cualquier ser humano podría haz ese movimiento.
Para estar muy seguro de que alguien hace trampa en un juego, debes observar muchos movimientos. Por ejemplo, los investigadores han investigado cómo se pueden analizar colectivamente muchos movimientos de un jugador para detectar anomalías.
Chess.com utiliza abiertamente el aprendizaje automático para predecir qué movimientos podría realizar un ser humano en una posición determinada. De hecho, tiene diferentes modelos de ajedrecistas famosos individuales, y puedes jugar contra ellos. Presumiblemente, se utilizan modelos similares para detectar trampas.
Un estudio reciente sugirió que, además de predecir la probabilidad de que un ser humano haga un determinado movimiento, también es importante tener en cuenta qué tan bueno es ese movimiento. Esto coincide con la afirmación de Chess.com de que evalúa si las jugadas "superan... el juego limpio confirmado" de los grandes.
Pero, ¿cómo mides qué movimientos son mejores que otros? En teoría, una posición de ajedrez es "ganadora" (puedes garantizar una victoria), "perdedora" (el otro jugador puede) o "empate" (ninguno puede), y una buena jugada sería cualquier jugada que no haga su posición peor. Pero siendo realistas, aunque las computadoras son mucho mejores que los humanos para calcular y elegir movimientos futuros, en muchas posiciones ni siquiera ellos pueden decir con certeza si una posición es ganadora, perdedora o empatada. Y ciertamente nunca podrían probarlo; una prueba generalmente requeriría demasiados cálculos, examinando cada hoja de un árbol de juego exponencial.
Entonces, lo que hacen las personas y las computadoras es usar "heurísticas" (suposiciones) para evaluar el "valor" de las diferentes posiciones, estimando qué jugador creen que ganará. Esto también se puede presentar como un problema de aprendizaje automático donde el conjunto de datos son muchas posiciones del tablero y las etiquetas son quién ganó, lo que entrena al algoritmo para predecir quién ganará desde una posición determinada.
Por lo general, los modelos de aprendizaje automático que se usan para este propósito piensan en los próximos movimientos probables, consideran qué posiciones son accesibles para ambos jugadores y luego usan "intuiciones" sobre esas posiciones futuras para informar su evaluación de la posición actual.
Pero quién gana desde una determinada posición depende de lo buenos que sean los jugadores. Entonces, la evaluación del modelo de un juego en particular dependerá de quién estaba jugando los juegos que llegaron al conjunto de datos de entrenamiento. Por lo general, cuando los comentaristas de ajedrez hablan sobre el "valor objetivo" de las diferentes posiciones, se refieren a quién es probable que gane desde una posición determinada cuando ambos lados están siendo jugados por las mejores IA de ajedrez disponibles. Pero esta medida de valor no siempre es la más útil cuando se considera una posición que los jugadores humanos tendrán que llevar a cabo al final. Por lo tanto, no está claro exactamente lo que Chess.com (o nosotros) deberíamos considerar como un "buen movimiento".
Si estuviera haciendo trampas en el ajedrez e hiciera algunos movimientos sugeridos por un motor de ajedrez, es posible que ni siquiera me ayude a ganar. Esos movimientos podrían estar configurando un ataque brillante que nunca se me ocurriría, así que lo desperdiciaría a menos que le pidiera al motor de ajedrez que jugara el resto del juego por mí. (Lichess.org me dice que he jugado 3049 partidas de Blitz en el momento de escribir este artículo, y mi calificación ELO no muy buena de 1632 significa que puedes esperar que pierda buenas tácticas a diestro y siniestro).
Detectar trampas es difícil. Si está jugando en línea y se pregunta si su oponente está haciendo trampa, realmente no podrá saberlo con certeza, porque no ha visto millones de juegos humanos jugados con estilos radicalmente diferentes. Es un problema en el que los modelos de aprendizaje automático entrenados con grandes cantidades de datos tienen una gran ventaja. En última instancia, pueden ser fundamentales para la integridad continua del ajedrez.
Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original. La nueva IA Go-play de Google aprende rápido e incluso se destrozó a sí misma