Zobrazeno 1 - 10
of 235
pro vyhledávání: '"Gradient stochastique"'
Autor:
Pillaud-Vivien, Loucas
Publikováno v:
Machine Learning [stat.ML]. Paris, Science et Lettres; Inria de Paris; Ecole Normale Supérieure, 2020. English
Machine Learning [stat.ML]. Université Paris sciences et lettres, 2020. English. ⟨NNT : 2020UPSLE061⟩
Machine Learning [stat.ML]. Université Paris sciences et lettres, 2020. English. ⟨NNT : 2020UPSLE061⟩
Machine Learning has received a lot of attention during the last two decades, both from industry for data-driven decision problems and from the scientific community in general. This recent attention is certainly due to its ability to efficiently solv
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=dedup_wf_001::7781ff0026882ea75c3a7ee66ba8c62d
https://theses.hal.science/tel-03621496v2
https://theses.hal.science/tel-03621496v2
Autor:
Pierre Carpentier, Guy Cohen
Publikováno v:
Décomposition-coordination en optimisation déterministe et stochastique ISBN: 9783662554272
Ce chapitre decrit l'algorithme du gradient stochastique dans le cas le plus simple ; il precise le cadre probabiliste adapte a son etude et enonce les theoremes classiques de convergence, ainsi qu'un theoreme de type limite centrale associe a cet al
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=doi_________::28242cb8148438571435c51c58ed3809
https://doi.org/10.1007/978-3-662-55428-9_7
https://doi.org/10.1007/978-3-662-55428-9_7
Autor:
Pierre Carpentier, Guy Cohen
Publikováno v:
Décomposition-coordination en optimisation déterministe et stochastique ISBN: 9783662554272
On presente un certain nombre de resultats concernant des extensions et des variations autour du gradient stochastique. On considere tout d'abord le cas des contraintes en esperance. On esquisse ensuite le traitement du cas des contraintes en probabi
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=doi_________::6beefc8ae9f15f79a5b555ab47ad148f
https://doi.org/10.1007/978-3-662-55428-9_10
https://doi.org/10.1007/978-3-662-55428-9_10
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
tagorti, manel
Publikováno v:
[Rapport de recherche] LTCI-Laboratoire Traitement et Communication de l'Information [Paris]. 2016
Ce rapport est un résumé des travaux effectués dans le cadre d’un stage postdoctoral au sein du laboratoire de traitement et communication de l’in-formation (LTCI) à Télécom Paristech. Le sujet porte sur l’adaptation du pas d’apprentiss
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=dedup_wf_001::90496e315f3c135d77b66931fc5323a6
https://hal.archives-ouvertes.fr/hal-01385685/document
https://hal.archives-ouvertes.fr/hal-01385685/document
Autor:
Perrier, Alexis.
Th. doct.--Signal et images--Paris--ENST, 1995.
Textes en français ou en anglais. Bibliogr. p. 213-219.
Textes en français ou en anglais. Bibliogr. p. 213-219.
Externí odkaz:
http://catalogue.bnf.fr/ark:/12148/cb35802687g
Autor:
Mignacco, Francesca
Publikováno v:
Disordered Systems and Neural Networks [cond-mat.dis-nn]. Université Paris-Saclay, 2022. English. ⟨NNT : 2022UPASP074⟩
Machine learning technologies have become ubiquitous in our daily lives. However, this field still remains largely empirical and its scientific stakes lack a deep theoretical understanding.This thesis explores the mechanisms underlying learning in ar
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=od______3515::03443a0d32a8c4ea6aa2c45582b0f82e
https://theses.hal.science/tel-03848811/file/115507_MIGNACCO_2022_archivage.pdf
https://theses.hal.science/tel-03848811/file/115507_MIGNACCO_2022_archivage.pdf
Autor:
Nguyen, Thanh Huy
Publikováno v:
Machine Learning [cs.LG]. Institut Polytechnique de Paris, 2021. English. ⟨NNT : 2021IPPAT003⟩
In this thesis, we are concerned with the Stochastic Gradient Descent (SGD) algorithm. Specifically, we perform theoretical and empirical analysis of the behavior of the stochastic gradient noise (GN), which is defined as the difference between the t
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=dedup_wf_001::47f5c612abe66aed03236bed30aee0bd
https://theses.hal.science/tel-03206456
https://theses.hal.science/tel-03206456
Autor:
Scellier, Benjamin
Au cours de la dernière décennie, l'apprentissage profond est devenu une composante majeure de l'intelligence artificielle, ayant mené à une série d'avancées capitales dans une variété de domaines. L'un des piliers de l'apprentissage profond
Autor:
Dedieu, Hervé
Th. univ.--Trait. du signal--Toulouse--Institut national polytechnique, 1988.
Externí odkaz:
http://catalogue.bnf.fr/ark:/12148/cb37613018c