Zobrazeno 1 - 7
of 7
pro vyhledávání: '"Cho, Sangwook"'
Knowledge distillation (KD), transferring knowledge from a cumbersome teacher model to a lightweight student model, has been investigated to design efficient neural architectures. Generally, the objective function of KD is the Kullback-Leibler (KL) d
Externí odkaz:
http://arxiv.org/abs/2105.08919
Modern deep neural networks (DNNs) become frail when the datasets contain noisy (incorrect) class labels. Robust techniques in the presence of noisy labels can be categorized into two folds: developing noise-robust functions or using noise-cleansing
Externí odkaz:
http://arxiv.org/abs/2102.11628
Autor:
Cho, Sangwook, Park, Sungju
Publikováno v:
In Current Applied Physics 2004 4(1):83-86
Autor:
Drukker, Karen, Iftekharuddin, Khan M., Lu, Hongbing, Mazurowski, Maciej A., Muramatsu, Chisako, Samala, Ravi K., Kim, Young Jae, Byun, Sohyun, Ahn, Chung il, Cho, Sangwook, Kim, Kwang Gi
Publikováno v:
Proceedings of SPIE; April 2022, Vol. 12033 Issue: 1 p120332S-120332S-4, 1082993p
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
DAC: Annual ACM/IEEE Design Automation Conference; Jun2004, p510-513, 4p
Publikováno v:
Proceedings of SPIE; 12/31/2021, Vol. 12033, p120332S-120332S-4, 1p