Zobrazeno 1 - 10
of 64
pro vyhledávání: '"Peng, Tianyu"'
Autor:
Peng, Tianyu, Zhang, Jiajun
Knowledge distillation (KD) is an effective model compression method that can transfer the internal capabilities of large language models (LLMs) to smaller ones. However, the multi-modal probability distribution predicted by teacher LLMs causes diffi
Externí odkaz:
http://arxiv.org/abs/2409.12545
Autor:
Peng, Tianyu, Ye, Shuyuan, Ju, Jianzhong, Zhao, Heng, Liu, Xicheng, Zhang, Xuezhi, Long, Zhili
Publikováno v:
In Applied Acoustics 15 February 2024 217
Publikováno v:
In Ultrasonics February 2024 137
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
In Research in Developmental Disabilities December 2022 131
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
Journal of Autism & Developmental Disorders; Jul2024, Vol. 54 Issue 7, p2502-2512, 11p
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.