Zobrazeno 1 - 10
of 18 619
pro vyhledávání: '"attention layer"'
Decomposing model activations into interpretable components is a key open problem in mechanistic interpretability. Sparse autoencoders (SAEs) are a popular method for decomposing the internal activations of trained transformers into sparse, interpret
Externí odkaz:
http://arxiv.org/abs/2406.17759
Autor:
S. Pradeepa, Elizabeth Jomy, S. Vimal, Md. Mehedi Hassan, Gaurav Dhiman, Asif Karim, Dongwann Kang
Publikováno v:
Scientific Reports, Vol 14, Iss 1, Pp 1-14 (2024)
Abstract Text classification plays a major role in research such as sentiment analysis, opinion mining, and customer feedback analysis. Text classification using hypergraph algorithms is effective in capturing the intricate relationships between word
Externí odkaz:
https://doaj.org/article/75c4549caf224408941a588047302eb1
Autor:
Pradeepa, S.1, Jomy, Elizabeth2, Vimal, S.3, Hassan, Md. Mehedi4, Dhiman, Gaurav5,6,7, Karim, Asif8, Kang, Dongwann9 dongwann@seoultech.ac.kr
Publikováno v:
Scientific Reports. 8/23/2024, Vol. 14 Issue 1, p1-14. 14p.
Autor:
Chen, Sitan, Li, Yuanzhi
The multi-head attention layer is one of the key components of the transformer architecture that sets it apart from traditional feed-forward models. Given a sequence length $k$, attention matrices $\mathbf{\Theta}_1,\ldots,\mathbf{\Theta}_m\in\mathbb
Externí odkaz:
http://arxiv.org/abs/2402.04084
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Garrett Greiner, Yu Zhang
Publikováno v:
Brain Informatics, Vol 11, Iss 1, Pp 1-18 (2024)
Abstract Early detection and accurate diagnosis of mental disorders is difficult due to the complexity of the diagnostic process, resulting in conditions being left undiagnosed or misdiagnosed. Previous studies have demonstrated that features of Elec
Externí odkaz:
https://doaj.org/article/98f6c30d78b04399bb82c721676e436c
Autor:
Busson, Antonio J. G., Rocha, Rafael, Gaio, Rennan, Miceli, Rafael, Pereira, Ivan, Moraes, Daniel de S., Colcher, Sérgio, Veiga, Alvaro, Rizzi, Bruno, Evangelista, Francisco, Santos, Leandro, Marques, Fellipe, Rabaioli, Marcos, Feldberg, Diego, Mattos, Debora, Pasqua, João, Dias, Diogo
This work proposes the Two-headed DragoNet, a Transformer-based model for hierarchical multi-label classification of financial transactions. Our model is based on a stack of Transformers encoder layers that generate contextual embeddings from two sho
Externí odkaz:
http://arxiv.org/abs/2312.07730
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.