Zobrazeno 1 - 10
of 65
pro vyhledávání: '"Fercoq, O."'
Publikováno v:
Scopus-Elsevier
A broad class of convex optimization problems can be formulated as a semidefinite program (SDP), minimization of a convex function over the positive-semidefinite cone subject to some affine constraints. The majority of classical SDP solvers are desig
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=doi_dedup___::ab702403b6b1aec25cdd58b976ca25fc
Autor:
Clairambault, J.1 jean.clairambault@inria.fr, Fercoq, O.2
Publikováno v:
Mathematical Modelling of Natural Phenomena. 2016, Vol. 11 Issue 6, p45-70. 26p.
Publikováno v:
International Conference on Machine Learning
International Conference on Machine Learning, Jul 2018, Stockholm, Sweden
Scopus-Elsevier
International Conference on Machine Learning, Jul 2018, Stockholm, Sweden
Scopus-Elsevier
We propose a conditional gradient framework for a composite convex minimization template with broad applications. Our approach combines smoothing and homotopy techniques under the CGM framework, and provably achieves the optimal $\mathcal{O}(1/\sqrt{
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=doi_dedup___::39647a8cc83bb2109ed5e93bf77cb1bf
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
Scopus-Elsevier
Screening rules allow to early discard irrelevant variables from the optimization in Lasso problems, or its derivatives, making solvers faster. In this paper, we propose new versions of the so-called $\textit{safe rules}$ for the Lasso. Based on dual
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=doi_dedup___::ecdfd4827edf44eb03a029339d9eb07c
Publikováno v:
Conference on Neural Information Processing Systems
Conference on Neural Information Processing Systems, Dec 2015, Montréal, Canada
Scopus-Elsevier
Conference on Neural Information Processing Systems, Dec 2015, Montréal, Canada
Scopus-Elsevier
High dimensional regression benefits from sparsity promoting regularizations. Screening rules leverage the known sparsity of the solution by ignoring some variables in the optimization, hence speeding up solvers. When the procedure is proven not to d
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=doi_dedup___::b3fe9090662fb6ada685142161c55d4c
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Conference
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.