Zobrazeno 1 - 10
of 30
pro vyhledávání: '"Tang, Huanling"'
Publikováno v:
Jisuanji kexue yu tansuo, Vol 18, Iss 3, Pp 780-794 (2024)
Knowledge distillation is a general approach to improve the performance of the named entity recognition (NER) models. However, the classical knowledge distillation loss functions are coupled, which leads to poor logit distillation. In order to decoup
Externí odkaz:
https://doaj.org/article/f06d958c81df42039104f732c50894fa
Publikováno v:
In Information Sciences September 2023 640
Publikováno v:
In Engineering Applications of Artificial Intelligence August 2023 123 Part C
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
International Journal of Machine Learning & Cybernetics; Dec2024, Vol. 15 Issue 12, p5563-5577, 15p
Publikováno v:
In Procedia Computer Science 2021 187:246-251
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
International Journal of Machine Learning & Cybernetics; Feb2024, Vol. 15 Issue 2, p559-571, 13p
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
International Journal of Data Science and Analytics; 20240101, Issue: Preprints p1-11, 11p