Zobrazeno 1 - 4
of 4
pro vyhledávání: '"Kannan, Kawshik"'
Large pretrained Transformer-based language models like BERT and GPT have changed the landscape of Natural Language Processing (NLP). However, fine tuning such models still requires a large number of training examples for each target task, thus annot
Externí odkaz:
http://arxiv.org/abs/2210.13979
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
Proceedings of SPIE; 4/14/2019, Vol. 11041, p1-8, 8p
Autor:
Verikas, Antanas, Nikolaev, Dmitry P., Radeva, Petia, Zhou, Jianhong, Noordeen, Aarif, Kannan, Kawshik, Ravi, Harish, Venkatraman, Bhaskar, Milton, R. S.
Publikováno v:
Proceedings of SPIE; March 2019, Vol. 11041 Issue: 1 p110411G-110411G-8, 993708p