Zobrazeno 1 - 10
of 28
pro vyhledávání: '"Rangamani, Akshay"'
While previous optimization results have suggested that deep neural networks tend to favour low-rank weight matrices, the implications of this inductive bias on generalization bounds remain underexplored. In this paper, we apply Maurer's chain rule f
Externí odkaz:
http://arxiv.org/abs/2411.13733
Autor:
Alford, Simon, Gandhi, Anshula, Rangamani, Akshay, Banburski, Andrzej, Wang, Tony, Dandekar, Sylee, Chin, John, Poggio, Tomaso, Chin, Peter
One of the challenges facing artificial intelligence research today is designing systems capable of utilizing systematic reasoning to generalize to new tasks. The Abstraction and Reasoning Corpus (ARC) measures such a capability through a set of visu
Externí odkaz:
http://arxiv.org/abs/2110.11536
We study the average $\mbox{CV}_{loo}$ stability of kernel ridge-less regression and derive corresponding risk bounds. We show that the interpolating solution with minimum norm minimizes a bound on $\mbox{CV}_{loo}$ stability, which in turn is contro
Externí odkaz:
http://arxiv.org/abs/2006.15522
Autor:
Rangamani, Akshay, Nguyen, Nam H., Kumar, Abhishek, Phan, Dzung, Chin, Sang H., Tran, Trac D.
It has been empirically observed that the flatness of minima obtained from training deep networks seems to correlate with better generalization. However, for deep networks with positively homogeneous activations, most measures of sharpness/flatness a
Externí odkaz:
http://arxiv.org/abs/1902.02434
Autor:
Harer, Jacob A., Kim, Louis Y., Russell, Rebecca L., Ozdemir, Onur, Kosta, Leonard R., Rangamani, Akshay, Hamilton, Lei H., Centeno, Gabriel I., Key, Jonathan R., Ellingwood, Paul M., Antelman, Erik, Mackay, Alan, McConley, Marc W., Opper, Jeffrey M., Chin, Peter, Lazovich, Tomo
Thousands of security vulnerabilities are discovered in production software each year, either reported publicly to the Common Vulnerabilities and Exposures database or discovered internally in proprietary code. Vulnerabilities often manifest themselv
Externí odkaz:
http://arxiv.org/abs/1803.04497
Autor:
Rangamani, Akshay, Mukherjee, Anirbit, Basu, Amitabh, Ganapathy, Tejaswini, Arora, Ashish, Chin, Sang, Tran, Trac D.
In "Dictionary Learning" one tries to recover incoherent matrices $A^* \in \mathbb{R}^{n \times h}$ (typically overcomplete and whose columns are assumed to be normalized) and sparse vectors $x^* \in \mathbb{R}^h$ with a small support of size $h^p$ f
Externí odkaz:
http://arxiv.org/abs/1708.03735
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
Analysis & Applications; Jan2023, Vol. 21 Issue 1, p193-215, 23p
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.