Please use this identifier to cite or link to this item:
https://hdl.handle.net/11264/1863
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.author | Broda-Milian, Kiernan | - |
dc.contributor.other | Royal Military College of Canada | en_US |
dc.date.accessioned | 2024-06-03T14:34:55Z | - |
dc.date.available | 2024-06-03T14:34:55Z | - |
dc.date.issued | 2024-06-03 | - |
dc.identifier.uri | https://hdl.handle.net/11264/1863 | - |
dc.description.abstract | Components of Cyber Physical Systems (CPS), which affect real-world processes, are often exposed to the internet. Replacing conventional control methods with Deep Reinforcement Learning (DRL) in energy systems is an active area of research, as these systems become increasingly complex with the advent of distributed energy resources integration and the desire to improve the energy efficiency. Artificial Neural Networks (ANN) are vulnerable to specific perturbations of their inputs or features called adversarial examples. These perturbations are difficult to detect when properly regularized, but have significant effects on the ANN’s output. Since DRL relies on artificial neural networks to link optimal actions with observations, they are also susceptible to adversarial examples in a similar manner. While Adversarial RL (ARL) has been explored in energy distribution, research is lacking in Demand Response (DR). Furthermore, the ARL literature lacks research into the stealth of adversarial attacks. This work proposes a novel attack technique for continuous control using Group Difference Logits (GDL) loss with a bifurcation layer. By combining aspects of targeted and untargeted attacks, it significantly increases the impact compared to an untargeted attack, with drastically smaller distortions than an optimally targeted attack. This thesis demonstrates the impacts of powerful gradient-based attacks in a realistic smart energy environment, measures how the impacts change with different DRL agents and training procedures, and uses statistical and time series analysis to evaluate attacks’ stealth. It finds that adversarial attacks can have significant impacts on DRL controllers in DR, and constraining an attack’s perturbations makes it difficult to detect. However, certain DRL architectures are far more robust, and robust training methods can further reduce the impact. | en_US |
dc.description.abstract | Les composants des systèmes cyberphysiques qui affectent les processus du monde réel sont souvent exposés `a l’Internet. Le remplacement des m´ethodes de contrôle conventionnelles par l’apprentissage par renforcement profond (aussi connu sous le nom de Deep Reinforcement Learning, DRL) dans les systèmes ´énergétiques est un domaine de recherche actif, car ces systèmes deviennent de plus en plus complexes et connectés avec l’av`enement des ressources ´énergétiques distribuées et la volonté d’am´eliorer l’efficacit´e ´énergétique. Les réseaux de neurones artificiels (aussi connus sous le nom de Artificial Neural Networks, ANN) sont vulnérables `a des perturbations spécifiques de leurs entrées. Ces perturbations aux entrées permettent de créer des exemples antagonistes. Ces derniers sont difficiles `a d´etecter lorsqu’ils sont correctement régularisés, en plus d’avoir des effets significatifs sur la sortie de l’ANN. Étant donné que le DRL utilise les ´ ANN pour mapper les actions optimales aux observations, il est également vulnérable aux exemples antagonistes. Bien que l’Adversarial RL (ARL) ait été exploré dans le domaine de la distribution d’énergie, il existe peu de recherche sur le sujet dans le domaine de la Réponse `a la Demande (RD). De plus, la littérature de l’ARL manque de recherches sur la furtivité des attaques adverses. Ce travail propose une nouvelle technique d’attaque sur un système de contrôle en continu utilisant la différence de groupe de logits dans la fonction de cout suivi d’une couche de bifurcation. En combinant les aspects des attaques ciblées et non ciblées, cette technique augmente considérablement l’impact par rapport `a une attaque non ciblée, avec des distorsions considérablement plus faibles qu’une attaque optimale ciblée. Cette thèse démontre les impacts d’attaques puissantes basées sur le gradient dans un environnement énergétique intelligent réaliste. On mesure comment les impacts changent avec différents agents DRL et procédures d’entraˆınement. On utilise des analyses statistiques et des analyses de données temporelles pour évaluer la furtivité des attaques. Il a été également d´emontr´e que les attaques contradictoires peuvent avoir des répercussions significatives sur les contrôleurs DRL en RD, et restreindre les perturbations d’une attaque les rend difficiles `a détecter. De plus, il s’av`ere que certaines architectures DRL sont bien plus robustes que d’autres, et que des méthodes d’entraˆınement robustes peuvent réduire encore davantage l’impact d’une attaque. | en_US |
dc.language.iso | en | en_US |
dc.subject | Deep Reinforcement Learning | en_US |
dc.subject | Adversarial Examples | en_US |
dc.subject | Smart Energy | en_US |
dc.subject | Cyber Physical Systems | en_US |
dc.subject | Load Altering Attacks | en_US |
dc.title | The ART of CityLearn: Observation Perturbation Attacks and Mitigation for Reinforcement Learning Agents in a Cyber Physical Power System | en_US |
dc.title.translated | L'ART de CityLearn : Attaques par perturbation d'observations et mitigation d'agents d'apprentissage par renforcement dans un système énergétique cyber-physique | en_US |
dc.contributor.supervisor | Dr Al-Mallah, Ranwa | - |
dc.contributor.cosupervisor | Dr Dagdougui, Hanane | - |
dc.date.acceptance | 2024-05-31 | - |
thesis.degree.discipline | Electrical and Computer Engineering/Génie électrique et informatique | en_US |
thesis.degree.name | MASc (Master of Applied Science/Maîtrise ès sciences appliquées) | en_US |
Appears in Collections: | Theses |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
Thesis_Kiernan___ART_of_CityLearn.pdf | 13.09 MB | Adobe PDF | View/Open |
Items in eSpace are protected by copyright, with all rights reserved, unless otherwise indicated.