Zobrazeno 1 - 10
of 385
pro vyhledávání: '"Cevher, V."'
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
Scopus-Elsevier
In this work we investigate stochastic non-convex optimization problems where the objective is an expectation over smooth loss functions, and the goal is to find an approximate stationary point. The most popular approach to handling such problems is
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=doi_dedup___::b55a0a908896c2d4c71b0adc6b709b97
Publikováno v:
NeurIPS 2020-34th International Conference on Neural Information Processing Systems
NeurIPS 2020-34th International Conference on Neural Information Processing Systems, Dec 2020, Vancouver, Canada. pp.1-32
Scopus-Elsevier
NeurIPS 2020-34th International Conference on Neural Information Processing Systems, Dec 2020, Vancouver, Canada. pp.1-32
Scopus-Elsevier
This paper analyzes the trajectories of stochastic gradient descent (SGD) to help understand the algorithm's convergence properties in non-convex problems. We first show that the sequence of iterates generated by SGD remains bounded and converges wit
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=doi_dedup___::a134aebe5ae854b4fe534d2ae62ec9bd
https://hal.inria.fr/hal-03043771/document
https://hal.inria.fr/hal-03043771/document
Publikováno v:
Scopus-Elsevier
We demonstrate two new important properties of the 1-path-norm of shallow neural networks. First, despite its non-smoothness and non-convexity it allows a closed form proximal operator which can be efficiently computed, allowing the use of stochastic
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=doi_dedup___::13031b07a0cd4b620a07e01787669cd7
http://arxiv.org/abs/2007.01003
http://arxiv.org/abs/2007.01003
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
Scopus-Elsevier
A broad class of convex optimization problems can be formulated as a semidefinite program (SDP), minimization of a convex function over the positive-semidefinite cone subject to some affine constraints. The majority of classical SDP solvers are desig
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=doi_dedup___::ab702403b6b1aec25cdd58b976ca25fc
Publikováno v:
International Conference on Machine Learning
International Conference on Machine Learning, Jul 2018, Stockholm, Sweden
Scopus-Elsevier
International Conference on Machine Learning, Jul 2018, Stockholm, Sweden
Scopus-Elsevier
We propose a conditional gradient framework for a composite convex minimization template with broad applications. Our approach combines smoothing and homotopy techniques under the CGM framework, and provably achieves the optimal $\mathcal{O}(1/\sqrt{
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=doi_dedup___::39647a8cc83bb2109ed5e93bf77cb1bf
Publikováno v:
Scopus-Elsevier
We present a novel method for convex unconstrained optimization that, without any modifications, ensures: (i) accelerated convergence rate for smooth objectives, (ii) standard convergence rate in the general (non-smooth) setting, and (iii) standard c
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=doi_dedup___::f3cedc0ea0359cbd127d1ee145245760
Conference
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.