Zobrazeno 1 - 7
of 7
pro vyhledávání: '"Yao, Jinghan"'
Autor:
Yao, Jinghan, Jacobs, Sam Ade, Tanaka, Masahiro, Ruwase, Olatunji, Shafi, Aamir, Subramoni, Hari, Panda, Dhabaleswar K.
Large Language Models (LLMs) with long context capabilities are integral to complex tasks in natural language processing and computational biology, such as text generation and protein sequence analysis. However, training LLMs directly on extremely lo
Externí odkaz:
http://arxiv.org/abs/2408.16978
Autor:
Yao, Jinghan, Alnaasan, Nawras, Chen, Tian, Shafi, Aamir, Subramoni, Hari, K., Dhabaleswar, Panda
Autoregressive models, despite their commendable performance in a myriad of generative tasks, face challenges stemming from their inherently sequential structure. Inference on these models, by design, harnesses a temporal dependency, where the curren
Externí odkaz:
http://arxiv.org/abs/2305.13484
Publikováno v:
In Microelectronics Journal November 2024 153
Autor:
Lu, Jiachen, Yao, Jinghan, Zhang, Junge, Zhu, Xiatian, Xu, Hang, Gao, Weiguo, Xu, Chunjing, Xiang, Tao, Zhang, Li
Vision transformers (ViTs) have pushed the state-of-the-art for various visual recognition tasks by patch-wise image tokenization followed by self-attention. However, the employment of self-attention modules results in a quadratic complexity in both
Externí odkaz:
http://arxiv.org/abs/2110.11945
Object instance segmentation is one of the most fundamental but challenging tasks in computer vision, and it requires the pixel-level image understanding. Most existing approaches address this problem by adding a mask prediction branch to a two-stage
Externí odkaz:
http://arxiv.org/abs/1904.07426
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.