Improving the performance of Batch-Constrained reinforcement learning in continuous action domains via generative adversarial networks
buir.contributor.author | Sağlam, Baturay | |
buir.contributor.author | Dalmaz, Onat | |
buir.contributor.author | Gönç, Kaan | |
buir.contributor.author | Kozat, Süleyman S. | |
buir.contributor.orcid | Sağlam, Baturay|0000-0002-8324-5980 | |
buir.contributor.orcid | Kozat, Süleyman S.|0000-0002-6488-3848 | |
dc.citation.epage | [4] | en_US |
dc.citation.spage | [1] | en_US |
dc.contributor.author | Sağlam, Baturay | |
dc.contributor.author | Dalmaz, Onat | |
dc.contributor.author | Gönç, Kaan | |
dc.contributor.author | Kozat, Süleyman S. | |
dc.coverage.spatial | Safranbolu, Turkey | en_US |
dc.date.accessioned | 2023-02-14T13:37:04Z | |
dc.date.available | 2023-02-14T13:37:04Z | |
dc.date.issued | 2022-08-29 | |
dc.department | Department of Computer Engineering | en_US |
dc.department | Department of Electrical and Electronics Engineering | en_US |
dc.description | Conference Name: 2022 30th Signal Processing and Communications Applications Conference (SIU) | en_US |
dc.description | Date of Conference: 15-18 May 2022 | en_US |
dc.description.abstract | The Batch-Constrained Q-learning algorithm is shown to overcome the extrapolation error and enable deep reinforcement learning agents to learn from a previously collected fixed batch of transitions. However, due to conditional Variational Autoencoders (VAE) used in the data generation module, the BCQ algorithm optimizes a lower variational bound and hence, it is not generalizable to environments with large state and action spaces. In this paper, we show that the performance of the BCQ algorithm can be further improved with the employment of one of the recent advances in deep learning, Generative Adversarial Networks. Our extensive set of experiments shows that the introduced approach significantly improves BCQ in all of the control tasks tested. Moreover, the introduced approach demonstrates robust generalizability to environments with large state and action spaces in the OpenAI Gym control suite. | en_US |
dc.description.abstract | Toplu-Kısıtlı Q-öğrenme (TKQ) algoritmasının, ekstrapolasyon hatasının üstesinden geldiği ve derin pekiştirmeli öğrenme ajanlarının önceden toplanmış sabit bir deneyim kümesinden öğrenebildiği gösterilmiştir. Ancak, veri oluşturma modülünde kullanılan Koşullu Değişken Özkodlayıcılar (KDÖ) sebebiyle TKQ algoritması daha düşük bir değişken sınırını optimize etmektedir ve bu nedenle, büyük durum ve eylem uzaylarına sahip ortamlara genelleştirilememektedir. Bu bildiride, derin öğrenmedeki son gelişmelerden biri olan Üretken Çekişmeli Ağlar’ın (ÜÇA) kullanılmasıyla TKQ algoritmasının performansının daha da geliştirilebileceği gösterilmektedir. Kapsamlı deneyler, tanıtılan yaklaşımın test edilen her bir kontrol görevinde TKQ’yu önemli ölçüde geliştirdiğini göstermektedir. Ayrıca tanıtılan yaklaşım, OpenAI Gym kontrol setindeki geniş durum ve eylem boşluklarına sahip ortamlara hızlı bir genelleştirilebilirlik sergilemektedir. | |
dc.identifier.doi | 10.1109/SIU55565.2022.9864786 | en_US |
dc.identifier.eisbn | 978-1-6654-5092-8 | en_US |
dc.identifier.issn | 2165-0608 | en_US |
dc.identifier.uri | http://hdl.handle.net/11693/111278 | en_US |
dc.language.iso | Turkish | en_US |
dc.publisher | IEEE | en_US |
dc.relation.isversionof | https://www.doi.org/10.1109/SIU55565.2022.9864786 | en_US |
dc.source.title | Signal Processing and Communications Applications Conference (SIU) | en_US |
dc.subject | Deep reinforcement learning | en_US |
dc.subject | Batch-Constrained reinforcement learning | en_US |
dc.subject | Offline re-inforcement learning | en_US |
dc.subject | Derin pekiştirmeli öğrenme | |
dc.subject | Toplu-Kısıtlı pekiştirmeli öğrenme | |
dc.subject | Çevrimdışı pekiştirmeli öğrenme | |
dc.title | Improving the performance of Batch-Constrained reinforcement learning in continuous action domains via generative adversarial networks | en_US |
dc.title.alternative | Üretken çekişmeli ağlar yoluyla sürekli eylem alanlarında Toplu-Kısıtlı pekiştirmeli öğrenme performansının iyileştirilmesi | en_US |
dc.type | Conference Paper | en_US |
Files
Original bundle
1 - 1 of 1
Loading...
- Name:
- Improving_the_Performance_of_Batch-Constrained_Reinforcement_Learning_in_Continuous_Action_Domains_via_Generative_Adversarial_Networks.pdf
- Size:
- 2.11 MB
- Format:
- Adobe Portable Document Format
- Description:
License bundle
1 - 1 of 1
No Thumbnail Available
- Name:
- license.txt
- Size:
- 1.69 KB
- Format:
- Item-specific license agreed upon to submission
- Description: