Zobrazeno 1 - 7
of 7
pro vyhledávání: '"Xu, Mufan"'
Large language models (LLMs) based on generative pre-trained Transformer have achieved remarkable performance on knowledge graph question-answering (KGQA) tasks. However, LLMs often produce ungrounded subgraph planning or reasoning results in KGQA du
Externí odkaz:
http://arxiv.org/abs/2412.12643
Quantitatively profiling a scholar's scientific impact is important to modern research society. Current practices with bibliometric indicators (e.g., h-index), lists, and networks perform well at scholar ranking, but do not provide structured context
Externí odkaz:
http://arxiv.org/abs/2304.12217
Autor:
Zeng, Yuan, Ferdous, Zubayer Ibne, Zhang, Weixiang, Xu, Mufan, Yu, Anlan, Patel, Drew, Guo, Xiaochen, Berdichevsky, Yevgeny, Yan, Zhiyuan
To understand the learning process in brains, biologically plausible algorithms have been explored by modeling the detailed neuron properties and dynamics. On the other hand, simplified multi-layer models of neural networks have shown great success o
Externí odkaz:
http://arxiv.org/abs/1905.11594
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
Communications Biology; 9/10/2024, Vol. 7 Issue 1, p1-12, 12p
Autor:
Tan, Hongyan, Zhang, Meng, Wu, Xiaojun, Cheng, Jiaqi, Xu, Mufan, Zhao, Yuqing *, Zhang, Xiaoshu *
Publikováno v:
In Phytochemistry Letters December 2021 46:166-171
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.