Browsing by Subject "Ambulance redeployment"
Now showing 1 - 3 of 3
- Results Per Page
- Sort Options
Item Open Access Adaptive ambulance redeployment via multi-armed bandits(2019-09) Şahin, ÜmitcanEmergency Medical Services (EMS) provide the necessary resources when there is a need for immediate medical attention and play a signi cant role in saving lives in the case of a life-threatening event. Therefore, it is necessary to design an EMS system where the arrival times to calls are as short as possible. This task includes the ambulance redeployment problem that consists of the methods of deploying ambulances to certain locations in order to minimize the arrival time and increase the coverage of the demand points. As opposed to many conventional redeployment methods where the optimization is primary concern, we propose a learning-based approach in which ambulances are redeployed without any a priori knowledge on the call distributions and the travel times, and these uncertainties are learned on the way. We cast the ambulance redeployment problem as a multi-armed bandit (MAB) problem, and propose various context-free and contextual MAB algorithms that learn to optimize redeployment locations via exploration and exploitation. We investigate the concept of risk aversion in ambulance redeployment and propose a risk-averse MAB algorithm. We construct a data-driven simulator that consists of a graph-based redeployment network and Markov tra c model and compare the performances of the algorithms on this simulator. Furthermore, we also conduct more realistic simulations by modeling the city of Ankara, Turkey and running the algorithms in this new model. Our results show that given the same conditions the presented MAB algorithms perform favorably against a method based on dynamic redeployment and similarly to a static allocation method which knows the true dynamics of the simulation setup beforehand.Item Open Access Çok kollu haydutlar ile dinamik ambulans konumlandırma(IEEE, 2019-04) Şahin, Ümitcan; Yücesoy, V.Bir ülkenin acil yardım sistemlerinin iyileştirilmesi, daha çok acil vakaya zamanında müdahale edilmesi ve daha çok hayatın kurtarılmasını sağlar. 112 Acil Yardım sisteminin bir parçası olan ambulans konumlandırma problemi, ambulansların vakalara mümkün olan en kısa sürede ulaşmasını sağlayacak şekilde konumlandırılmasını sağlayan birçok yöntemden oluşur. Bu çalışmada ambulanslar, literatürdeki yöntemlerin aksine, bir çok kollu haydut (ÇKH) algoritması kullanılarak konumlandırılmaktadır. OpenStreetMap (OSM) harita uygulaması kullanılarak oluşturulmuş iki yönlü kenarlardan ve toplam 2400 düğümden oluşan bir Ankara şehri haritası üzerinde konumlandırma işlemi yapılmaktadır. Düğümler üzerindeki vaka dağılımları ve aralarındaki seyahat süreleri ÇKH algoritması tarafından bilinmemektedir ve zamanla öğrenilmektedir. Bu öğrenim keşif ve istifade arasındaki ödünleşim sistemi ile sağlanmaktadır. Algoritma karşılaştırmaları için literatürde sıkça kullanılan ve dinamik bir konumlandırma yöntemi olan DMEXCLP modeli kullanılmıştır. Simülasyonlarda algoritma karşılaştırmaları için iki ölçüt değerlendirilmiştir: 1) vakalara ortalama müdahale süresi ve 2) 15 dakika altında varılan vaka yüzdesi. Sonuç olarak aynı şartlar altında önerilen ÇKH algoritmasının DMEXCLP modeline göre bu iki ölçüt açısından daha iyi performans verdiği gösterilmiştir.Item Open Access Risk-averse ambulance redeployment via multi-armed bandits(IEEE, 2018) Sahin, U.; Yucesoy, V.; Koc, A.; Tekin, CemAmbulance redeployment comprises the problem of deploying ambulances to certain locations in order to minimize the arrival times to possible calls and plays a significant role in improving a country's emergency medical services and increasing the number of lives saved during an emergency. In this study, unlike the existing optimization methods in the literature, the problem is cast as a multi-armed bandit problem. Multi-armed bandit problems are a part of sequential online learning methods and utilized in maximizing a gain function (i.e. reward) when the reward distributions are unknown. In this study, in addition to the objective of maximizing rewards, the objective of minimizing the expected variance of rewards is also considered. The effect of risk taken by the system on average arrival times and number of calls responded on time is investigated. Ambulance redeployment is performed by a risk-averse multi-armed bandit algorithm on a data-driven simulator. As a result, it is shown that the algorithm which takes less risk (i.e. that minimizes the variance of response times) responds to more cases on time.