Zobrazeno 1 - 4
of 4
pro vyhledávání: '"Su, Xihong"'
Optimizing risk-averse objectives in discounted MDPs is challenging because most models do not admit direct dynamic programming equations and require complex history-dependent policies. In this paper, we show that the risk-averse {\em total reward cr
Externí odkaz:
http://arxiv.org/abs/2408.17286
Autor:
Su, Xihong, Petrik, Marek
Multi-model Markov decision process (MMDP) is a promising framework for computing policies that are robust to parameter uncertainty in MDPs. MMDPs aim to find a policy that maximizes the expected return over a distribution of MDP models. Because MMDP
Externí odkaz:
http://arxiv.org/abs/2407.06329
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
Journal of Electronics; Jan2011, Vol. 28 Issue 1, p118-125, 8p