Zobrazeno 1 - 10
of 75
pro vyhledávání: '"Lee, Suin"'
To apply the latest computer vision techniques that require a large computational cost in real industrial applications, knowledge distillation methods (KDs) are essential. Existing logit-based KDs apply the constant temperature scaling to all samples
Externí odkaz:
http://arxiv.org/abs/2311.14334
Previous logits-based Knowledge Distillation (KD) have utilized predictions about multiple categories within each sample (i.e., class predictions) and have employed Kullback-Leibler (KL) divergence to reduce the discrepancy between the student and te
Externí odkaz:
http://arxiv.org/abs/2311.14307
Publikováno v:
In Water Research 15 September 2024 262
Publikováno v:
In Journal of Financial Stability December 2024 75
Publikováno v:
In Knowledge-Based Systems 19 July 2024 296
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
In Desalination 1 September 2023 561
Publikováno v:
In Emerging Markets Review September 2023 56
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Ha, Jongmok1,2,3 (AUTHOR), Lee, Suin1,2 (AUTHOR), Kim, Seongmi1,2 (AUTHOR), Lee, Jun Seok1,2 (AUTHOR), Ahn, Jong Hyeon1,2 (AUTHOR), Cho, Jin Whan1,2 (AUTHOR), Fasano, Alfonso4,5,6 (AUTHOR), Youn, Jinyoung1,2 (AUTHOR) genian@skku.edu
Publikováno v:
Movement Disorders Clinical Practice. Nov2024, p1. 13p. 4 Illustrations.