Zobrazeno 1 - 10
of 11 168
pro vyhledávání: '"A Mikhalev"'
We consider the 3D Mikhalev system, $$ u_t=w_x, \quad u_y= w_t-u w_x+w u_x, $$ which has first appeared in the context of KdV-type hierarchies. Under the reduction $w=f(u)$, one obtains a pair of commuting first-order equations, $$ u_t=f'u_x, \quad u
Externí odkaz:
http://arxiv.org/abs/2310.20528
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Krasil'shchik, I. S.
In geometry of nonlinear partial differential equations, recursion operators that act on symmetries of an equation $\mathcal{E}$ are understood as B\"{a}cklund auto-transformations of the equation $\mathcal{TE}$ tangent to $\mathcal{E}$. We apply thi
Externí odkaz:
http://arxiv.org/abs/2203.13045
Publikováno v:
Electronic Journal of Differential Equations, Vol 2021, Iss 41,, Pp 1-14 (2021)
Externí odkaz:
https://doaj.org/article/b11e8cd40d8f4cd88b1689bd518dc5c0
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Chekalina, Viktoriia, Rudenko, Anna, Mezentsev, Gleb, Mikhalev, Alexander, Panchenko, Alexander, Oseledets, Ivan
The performance of Transformer models has been enhanced by increasing the number of parameters and the length of the processed text. Consequently, fine-tuning the entire model becomes a memory-intensive process. High-performance methods for parameter
Externí odkaz:
http://arxiv.org/abs/2410.07383
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Blagovisnaya, A. N.1 matmet@bk.ru, Pikhtilkova, O. A.1 OPikhtilkova@mail.ru, Pikhtilkov, S. A.1 pikhtilkov@mail.ru
Publikováno v:
Journal of Mathematical Sciences. Sep2018, Vol. 233 Issue 5, p635-639. 5p.
Autor:
Merkulov, Daniil, Cherniuk, Daria, Rudikov, Alexander, Oseledets, Ivan, Muravleva, Ekaterina, Mikhalev, Aleksandr, Kashin, Boris
In this paper, we introduce an algorithm for data quantization based on the principles of Kashin representation. This approach hinges on decomposing any given vector, matrix, or tensor into two factors. The first factor maintains a small infinity nor
Externí odkaz:
http://arxiv.org/abs/2404.09737
In this paper we generalize and extend an idea of low-rank adaptation (LoRA) of large language models (LLMs) based on Transformer architecture. Widely used LoRA-like methods of fine-tuning LLMs are based on matrix factorization of gradient update. We
Externí odkaz:
http://arxiv.org/abs/2402.01376