Zobrazeno 1 - 10
of 52
pro vyhledávání: '"Yin, Peiqi"'
Transformer-based large language models (e.g., BERT and GPT) achieve great success, and fine-tuning, which tunes a pre-trained model on a task-specific dataset, is the standard practice to utilize these models for downstream tasks. However, Transform
Externí odkaz:
http://arxiv.org/abs/2312.10365
Autor:
Yin, Peiqi1 (AUTHOR) peiqi.yin@einsteinmed.edu, Martin, Caroline K.1 (AUTHOR), Kielian, Margaret1 (AUTHOR) margaret.kielian@einsteinmed.edu
Publikováno v:
PLoS Pathogens. 10/9/2024, Vol. 20 Issue 10, p1-7. 7p.
Autor:
Yin, Peiqi, Yan, Xiao, Zhou, Jinjing, Fu, Qiang, Cai, Zhenkun, Cheng, James, Tang, Bo, Wang, Minjie
While many systems have been developed to train Graph Neural Networks (GNNs), efficient model inference and evaluation remain to be addressed. For instance, using the widely adopted node-wise approach, model evaluation can account for up to 94% of th
Externí odkaz:
http://arxiv.org/abs/2211.15082
Publikováno v:
In Trends in Microbiology
Publikováno v:
In Virologica Sinica August 2023 38(4):497-507
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.