Please use this identifier to cite or link to this item: https://hdl.handle.net/11264/1502
Full metadata record
DC FieldValueLanguage
dc.contributor.authorGonzalez, Karla-
dc.contributor.otherRoyal Military College of Canadaen_US
dc.date.accessioned2023-09-18T14:22:52Z-
dc.date.available2023-09-18T14:22:52Z-
dc.date.issued2023-09-18-
dc.identifier.urihttps://hdl.handle.net/11264/1502-
dc.description.abstractIn the realm of artificial intelligence (AI), game-playing algorithms have reached remarkable heights of performance, exemplified by DeepMind's AlphaGo, AlphaZero, and MuZero algorithms. However, despite these achievements, there exists a need for a comprehensive evaluation and comparison of these algorithms, as well as an exploration of modifications to the underlying Monte Carlo Tree Search (MCTS) algorithm. This thesis represents a step forward in addressing these needs, aiming to shed light on the strengths and limitations of these state-of-the-art algorithms, the impact of modifications to MCTS, and their performance across diverse game environments. The thesis first delves into the foundations of reinforcement learning (RL) and the MCTS algorithm, providing a solid understanding of the key concepts. It then proceeds to evaluate two modifications of the MCTS algorithm, UCT and Loss Avoidance (LA). We found that both modifications, particularly the simultaneous implementation of both, improved not only MCTS in our selected environment, but also Alpha-Zero when used within its MCTS search. Building upon this foundation, the thesis turns its attention to the implementation and evaluation of the DeepMind algorithms themselves: AlphaGo, AlphaZero, and MuZero. These algorithms are evaluated in a range of game environments, varying in complexity and size. By subjecting them to identical computational constraints and neural network architectures, we found that although Muzero is learning a model unlike it's sibling algorithms, overtime will outperform within fairly complex environments, such as Othello and Pinball.en_US
dc.description.abstractDans le domaine de l'intelligence artificielle, les algorithmes de jeu ont atteint des niveaux de performance remarquables, comme en témoignent les algorithmes AlphaGo, AlphaZero et MuZero de DeepMind. Cependant, malgré ces réalisations, il existe un besoin d'implémentation, d'évaluation et de comparaison complètes de ces algorithmes, ainsi que d'exploration des modifications apportées à l'algorithme sous-jacent de Recherche Arborescente Monte Carlo (MCTS). Cette thèse représente une avancée significative dans la réponse à ces besoins, visant à mettre en lumière les forces et les limites de ces algorithmes de pointe, l'impact des modifications apportées à l'algorithme MCTS, et leur performance dans divers environnements de jeu. La thèse se penche d'abord sur les fondements de l'apprentissage par renforcement et de l'algorithme MCTS, ce qui permet de bien comprendre les concepts clés. Elle procède ensuite à l'évaluation de deux modifications de l'algorithme MCTS, Upper Confidence Bounds for Trees (UCT) et Loss Avoidance. Nous avons constaté que les deux modifications, en particulier l'implémentation simultanée des deux, ont amélioré non seulement MCTS dans notre environnement sélectionné, mais aussi AlphaZero lorsqu'il est utilisé dans sa recherche MCTS. Sur cette base, la thèse s'intéresse à la mise en œuvre et à l'évaluation des algorithmes DeepMind eux-mêmes : AlphaGo, AlphaZero et MuZero. Ces algorithmes sont évalués dans une série d'environnements de jeu, dont la complexité et la taille varient. En les soumettant à des contraintes de calcul et à des architectures de réseaux neuronaux identiques, nous avons constaté que, bien que Muzero apprenne un modèle différent de celui de ses autres algorithmes Alpha, les heures supplémentaires seront plus performantes dans des environnements assez complexes, comme Othello et Pinball.en_US
dc.language.isoenen_US
dc.subjectMonte Carlo Tree Searchen_US
dc.subjectArtificial Intelligenceen_US
dc.subjectReinforcement Learningen_US
dc.subjectDeep Learningen_US
dc.subjectAlphaZeroen_US
dc.subjectAlgorithmic Improvementsen_US
dc.titleEnhanced Monte Carlo Tree Search in Game-Playing AI: Evaluating Deepmind's Algorithmsen_US
dc.title.translatedAmélioration de la Recherche Arborescente Monte Carlo dans l'Intelligence Artificielle pour les Jeux : Évaluation des Algorithmes de DeepMinden_US
dc.contributor.supervisorRivest, Francois-
dc.date.acceptance2023-08-21-
thesis.degree.disciplineComputer Science/Sciences informatiquesen_US
thesis.degree.nameMSc (Master of Science/Maîtrise ès sciences)en_US
Appears in Collections:Theses

Files in This Item:
File Description SizeFormat 
MASTER_THESIS_Karla_Aug_2023 (1).pdf1.89 MBAdobe PDFView/Open


Items in eSpace are protected by copyright, with all rights reserved, unless otherwise indicated.