Zobrazeno 1 - 10
of 58
pro vyhledávání: '"Tao, Wenyuan"'
PMIC: Improving Multi-Agent Reinforcement Learning with Progressive Mutual Information Collaboration
Autor:
Li, Pengyi, Tang, Hongyao, Yang, Tianpei, Hao, Xiaotian, Sang, Tong, Zheng, Yan, Hao, Jianye, Taylor, Matthew E., Tao, Wenyuan, Wang, Zhen, Barez, Fazl
Learning to collaborate is critical in Multi-Agent Reinforcement Learning (MARL). Previous works promote collaboration by maximizing the correlation of agents' behaviors, which is typically characterized by Mutual Information (MI) in different forms.
Externí odkaz:
http://arxiv.org/abs/2203.08553
Multi-dimensional data exploration is a classic research topic in visualization. Most existing approaches are designed for identifying record patterns in dimensional space or subspace. In this paper, we propose a visual analytics approach to explorin
Externí odkaz:
http://arxiv.org/abs/2104.11867
Autor:
Tang, Hongyao, Meng, Zhaopeng, Hao, Jianye, Chen, Chen, Graves, Daniel, Li, Dong, Yu, Changmin, Mao, Hangyu, Liu, Wulong, Yang, Yaodong, Tao, Wenyuan, Wang, Li
We study Policy-extended Value Function Approximator (PeVFA) in Reinforcement Learning (RL), which extends conventional value function approximator (VFA) to take as input not only the state (and action) but also an explicit policy representation. Suc
Externí odkaz:
http://arxiv.org/abs/2010.09536
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Tang, Hongyao, Meng, Zhaopeng, Hao, Jianye, Chen, Chen, Graves, Daniel, Li, Dong, Yu, Changmin, Mao, Hangyu, Liu, Wulong, Yang, Yaodong, Tao, Wenyuan, Wang, Li
Publikováno v:
Proceedings of the AAAI Conference on Artificial Intelligence. 36:8441-8449
We study Policy-extended Value Function Approximator (PeVFA) in Reinforcement Learning (RL), which extends conventional value function approximator (VFA) to take as input not only the state (and action) but also an explicit policy representation. Suc
Publikováno v:
In Pattern Recognition December 2015 48(12):3917-3926
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Wang, Tong1 (AUTHOR), Tao, Wenyuan1 (AUTHOR), Own, Chung‐Ming1 (AUTHOR) chungming.own@tju.edu.cn, Lou, Xiantuo1 (AUTHOR), Zhao, Yuehua2 (AUTHOR)
Publikováno v:
Computer Graphics Forum. Oct2020, Vol. 39 Issue 7, p291-300. 10p. 1 Color Photograph, 1 Illustration, 3 Diagrams, 5 Charts, 1 Graph.
Publikováno v:
In Journal of Visual Languages and Computing October 2013 24(5):390-401