Ir al contenido

Arimaa/Información/Historia

De Wikilibros, la colección de libros de texto de contenido libre.

Índice de la sección
«Información»


Arimaa fue diseñado para ser más fácil para los humanos que para las computadoras, pero la única forma de probar esto era incentivar la creación de robustos bots de Arimaa. El Arimaa Challenge enfrentaría al robot superior contra un jugador humano superior. Celebrada por primera vez en febrero de 2004, la partida Challenge ocurriría cada año hasta que un bot prevaleciera, o hasta 2020. Si un bot ganara alguna vez, su desarrollador ganaría $ 10,000 prometidos por Omar Syed y, a veces, más prometidos por otros. El bot siempre se ejecutaría en hardware estándar, no en algo avanzado o desactualizado. Syed esperaba que Arimaa no pudiera ser dominado por puro poder de cálculo hasta 2020 o más tarde, y esperaba que los bots adoptaran un enfoque similar al humano para Arimaa.

2004[editar]

Un año antes de la primera partida Challenge, Omar Syed se puso en contacto con David Fotland, un programador especializado en el juego de mesa Go . Fotland reconoció que el gran factor de ramificación de ArimaaDe hecho, podría suponer un problema para las computadoras, pero pensó que las computadoras tendrían una ventaja inicial por una razón que Syed no había considerado: como un juego nuevo, Arimaa estaba inexplorado. El primer defensor humano tendría como máximo un año de experiencia contra otros jugadores nuevos; incluso un jugador altamente motivado y talentoso estaría limitado por lo que podría practicar. Por lo tanto, Fotland sintió que el Desafío podría ganarse en el primer año, pero se mostró reacio a asumir un proyecto de este tipo. Syed prometió así duplicar el premio a 20.000 dólares si un bot podía ganar el primer Desafío. Después de comparar notas con Syed y Don Dailey , Fotland creó un bot inicial que derrotó a Syed dos veces. Fotland decidió hacerlo.

Para participar en la próxima competencia, un bot tenía que jugar primero veinte juegos públicos con al menos seis oponentes diferentes, incluidos al menos tres humanos. Queriendo descubrir las debilidades de su bot, Fotland le permitió jugar muchos más de veinte juegos. Este bot, llamado Bomb, parecía fuerte, hasta que los jugadores comenzaron a tomar su camello como rehén . Esta estrategia resultó muy eficaz contra Bomb, que luego Fotland volvió a sintonizar para tener más cuidado con su camello. El Bomb, menos agresivo, se mantuvo fuerte contra otros bots y ganó fácilmente el Campeonato de Computación de 2004.

En el lado humano, Frank Heinemann ganó el Campeonato Mundial de Arimaa 2004, pero se mostró reacio a defender el honor de la humanidad y los $ 20.000 de Syed. Syed, todavía un jugador de primer nivel, decidió defender su propio premio. El partido Syed vs. Bomb consistiría en ocho juegos, con cada lado jugando cuatro como Oro y cuatro como Plata. En el caso de un empate 4-4, el ganador sería aquel cuyas victorias usaran menos turnos totales.

Con Bomb ya no da un rehén fácil en camello, el resultado era incierto. Bomb no estaba programado para aprender de sus juegos, pero por otro lado no se cansaría de este largo partido, como podría estarlo un jugador humano. Sin embargo, la Bomba ahora defensiva tenía pocas respuestas para los ataques de elefante solitario de Syed . En el raro caso de que Bomb obtuviera una ventaja material, no pudo capitalizar. Bomb desperdició su juego más prometedor después de que rechazó un intercambio que podría haber empujado a Syed hacia un final difícil . En general, Syed podría haber sido muy susceptible a los ataques de trampas de múltiples piezas , que no se entendieron bien en ese momento, pero luego demostraron ser más fuertes que los ataques de elefantes solitarios.

Después de barrer los primeros cinco juegos y defender así el Desafío, Syed decidió jugar con limitaciones adicionales. Ganó el sexto juego sin perder una pieza y ganó el séptimo sin capturar una pieza. En el octavo juego dio un handicap material de conejo y aún así ganó.

La blanqueada 8-0 de Syed fue una sorpresa, pero reivindicó su expectativa de que los bots tendrían problemas con la estrategia a largo plazo. Fotland continuó refinando Bomb, pero no esperaba superar a los jugadores humanos mientras se exploraba más a fondo Arimaa.

2005[editar]

No convencidos de que los ataques de elefantes solitarios fueran en última instancia una buena estrategia, y sabiendo que un ataque de elefante y camello probablemente resultaría en una posición de rehén que ataría al elefante y al camello del atacante, los jugadores exploraron cada vez más los ataques de elefante y caballo. La solidez de un ataque de caballo elefante generalmente depende del costo de que el caballo sea tomado como rehén. Un rehén caballo por elefantepor lo general, no le da al rehén la pieza libre más fuerte, pero ata tanto a un caballo como a un elefante enemigos, siempre que el elefante se defienda. Sin embargo, los jugadores empezaron a darse cuenta de que las posiciones relativas de los respectivos elefantes podrían ir en contra del rehén, cuyo elefante suele estar más marginado. A medida que se hizo evidente que se podía construir una ventaja posicional incluso con el caballo de uno como rehén, los ataques de elefante y caballo se hicieron comunes.

David Fotland mejoró Bomb principalmente arreglando pequeños errores y afinando la función de evaluación, pero también agregó una innovación estratégica importante: Bomb se volvió selectivamente agresiva con su camello cuando el elefante enemigo estaba atado en otro lugar. Bomb repitió como Campeón de Computadoras, pero solo después de los desempates; otros bots ahora parecían casi tan fuertes.

Cuatro jugadores humanos obtuvieron una clasificación más alta que Bomb, pero los dos primeros se negaron a defender el Desafío debido al compromiso de tiempo requerido. No queriendo volver a defender su propio premio, Omar Syed, tercero clasificado, convenció a Frank Heinemann, cuarto clasificado, de que lo hiciera esta vez.

Cualquier suspenso duró poco, ya que incluso la Bomba mejorada tenía poca comprensión de los ataques de elefante y caballo. En el primer juego, Heinemann sobrecargó a Bomb en el oeste mientras que los camellos bloquearon el este. El segundo juego fue similar, aunque más largo. En el tercer juego, Heinemann siguió su ataque elefante-caballo con un enjambre para bloquear al elefante de Bomb y liberar a su propio elefante.

En el cuarto juego, Bomb movió su elefante a tiempo para evitar un bloqueo. Mientras todavía estaba junto a un gato, Heinemann movió a su elefante a un rincón y lo mantuvo allí, lo que probablemente le costó este juego. Esa iba a ser la única victoria de Bomb. En el quinto juego, Heinemann no pudo mantener su bloqueo cuando giró su propio elefante. Sin embargo, después de un intercambio de perros, Heinemann cambió un caballo por el agresivo camello de Bomb y luego avanzó más piezas para solidificar una ventaja espacial del este. El elefante de Bomb regresó al este y el perro de Heinemann lideró un fuerte ataque occidental. En cada uno de los últimos tres juegos, Heinemann diezmó el ejército de Bomb sin perder él mismo una pieza.

La victoria de Heinemann por 7-1 demostró su adaptabilidad humana, ya que su ataque caballo-elefante mejoró y la respuesta de Bomb permaneció estática. Sin entender cómo usar mejor a sus caballos, Bomb se dejó constantemente vulnerable en la lista b o g.

2007[editar]

Dada la renuencia de los mejores jugadores a defender los dos primeros Desafíos, Omar Syed introdujo un formato más amigable para el jugador para 2006: ahora habría tresdefensores humanos, cada uno de los cuales jugaría tres juegos contra el mejor bot. Cualquier defensor podría defender el Desafío ganando al menos dos de sus tres juegos. Esto minimizó tanto la presión psicológica como el compromiso de tiempo que enfrentaría un defensor, e hizo poco probable que el Desafío cayera simplemente porque se eligió al defensor humano equivocado. El requisito de que el bot ganara los tres minijuegos, y no solo la mayoría de los juegos, fue recibido con cierto escepticismo. Sin embargo, Syed sintió que esto estaba equilibrado por factores que originalmente no había considerado. Incluso en 2020, razonaba Syed, el estudio humano de Arimaa no se acercaría a los siglos de estudio del Ajedrez o el Go, ni el grupo de jugadores rivalizaría con el de estos juegos clásicos. Dada la competencia humana limitada, Syed sintió que era razonable pedir que un bot demostrara un dominio claro.

Bomb ganó el Campeonato de Computadoras de 2006 con más facilidad que el año anterior, a pesar de que resultó ser la Bomba de 2005 sin cambios, cuyas debilidades ahora eran bien conocidas por los jugadores humanos.

Karl "Fritz" Juhnke, Greg Magne y Paul Mertens barrieron los primeros ocho juegos del Challenge, sin perder ni una pieza en seis de esos juegos. Los ataques de caballos elefantes siguieron siendo la estrategia principal; si un caballo avanzaba en el lugar correcto, el elefante de Bomb normalmente lo tomaba como rehén , lo que resultaba en una mala alineación para Bomb. En el primer juego de Juhnke, cambió su caballo de acogida por el agresivo camello de Bomb. En sus otros dos juegos, Juhnke defendió al rehén mientras capturaba piezas débiles en casa, y finalmente hizo rotar a su elefante fuera de la defensa de rehenes. Magne rápidamente atacó a ambosalejar trampas en su primer juego; una vez que el elefante de Bomb estuvo aislado en el este, el camello de Magne avanzó por el oeste, y siguieron más piezas. Magne hizo otro ataque de doble trampa en su segundo juego; esta vez, Magne perdió su camello por un caballo, pero sus amenazas de gol ataron al elefante de Bomb por el resto del juego. En su tercer juego, Magne realizó capturas en casa. Mertens bloqueó dos veces al elefante de Bomb y dominó el tablero.

Para el noveno y último juego, Mertens le dio a Bomb un hándicap camello. A pesar de esta enorme desventaja, Mertens generó una fuerte carrera de goles, que Bomb ganó por poco.

Syed había jugado a lo seguro en su selección de defensores, pero parecía probable que varios otros hubieran podido defender el Challenge 2006 fácilmente.