Zobrazeno 1 - 4
of 4
pro vyhledávání: '"Aghdam, Maryam Akhavan"'
Transformer-based Mixture-of-Experts (MoE) models have been driving several recent technological advancements in Natural Language Processing (NLP). These MoE models adopt a router mechanism to determine which experts to activate for routing input tok
Externí odkaz:
http://arxiv.org/abs/2409.06669
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Aghdam MA; School of Computing and Information Sciences, Florida International University, Miami, FL, United States., Bozdag S; Department of Computer Science and Engineering, University of North Texas, Denton, TX, United States.; Department of Mathematics, University of North Texas, Denton, TX, United States.; BioDiscovery Institute, University of North Texas, Denton, TX, United States., Saeed F; School of Computing and Information Sciences, Florida International University, Miami, FL, United States.
Publikováno v:
BioRxiv : the preprint server for biology [bioRxiv] 2023 Dec 04. Date of Electronic Publication: 2023 Dec 04.