High dimensional importance sampling through projections on a low dimensional subspace

Autor: El Masri, Maxime
Přispěvatelé: Institut Supérieur de l'Aéronautique et de l'Espace, Simatos, Florian, Morio, Jérôme
Jazyk: francouzština
Rok vydání: 2022
Předmět:
Popis: De nombreuses disciplines scientifiques s’intéressent à l’estimation d’espérances d’une fonction d’intérêt selon une certaine loi de probabilité. Cette fonction peut être considérée comme une boite noire, potentiellement couteuse à évaluer. Une méthode couramment utilisée pour estimer des espérances, tout en limitant le nombre d’appels à la boite noire, est la méthode stochastique d’échantillonnage préférentiel (Importance Sampling, IS) qui consiste à échantillonner selon une loi de probabilité auxiliaire au lieu de la loi initiale. L’estimateur d’IS est défini à partir de l’estimateur de Monte-Carlo, avec des poids d’importance, et converge presque sûrement vers l’espérance voulue, par la loi des grands nombres. Cependant, sa variance, et donc la précision de l’estimation, dépend fortement du choix de la densité auxiliaire. Une densité optimale d’échantillonnage préférentiel minimisant la variance peut être définie sur le plan théorique mais n’est pas connue en pratique. Une possibilité est alors de choisir la densité auxiliaire dans une famille paramétrique, avec la-quelle il est facile de générer des échantillons, afin d’approcher la distribution optimale théorique. Des algorithmes adaptatifs (Adaptive Importance Sampling, AIS), qui estiment les paramètres de manière itérative, ont été développés pour trouver les paramètres optimaux permettant d’approcher la densité théorique visée. Mais lorsque la dimension de l’espace des paramètres augmente, l’estimation des paramètres se dégrade et les algorithmes d’AIS, et l’IS en général, deviennent inefficaces. L’estimation finale de l’espérance devient alors très imprécise, notamment du fait de l’accumulation des erreurs commises dans l’estimation de chaque paramètre. L’objectif principal de cette thèse est ainsi d’améliorer la précision de l’IS en grande dimension, en réduisant le nombre de paramètres estimés à l’aide de projections dans un sous-espace de petite dimension. Nous nous concentrons particulièrement sur la recherche de directions de projection influentes pour l’estimation de la matrice de covariance dans un cadre gaussien unimodal (où l’on met à jour le vecteur moyenne et la covariance). La première piste explorée est la projection sur le sous-espace de dimension un engendré par la moyenne optimale. Cette direction est particulièrement pertinente dans le cas d’estimation d’une probabilité d’événement rare, car la variance semble diminuer selon cette direction. La seconde proposition correspond à la projection optimale obtenue en minimisant la divergence de Kullback-Leibler avec la densité visée. Cette seconde proposition permet de projeter dans un espace de plusieurs dimensions contrairement à la première, et permet d’identifier les directions les plus influentes. Dans un premier temps, l’efficacité de ces projections est testée sur différents exemples d’estimation d’espérances en grande dimension, dans un cadre théorique n’impliquant pas d’algorithmes adaptatifs. Les simulations numériques réalisées montrent une nette amélioration de la précision de l’estimation par IS avec les deux techniques de projection sur tous les exemples considérés. Ensuite, nous proposons un couplage de ces projections avec l’algorithme d’Entropie Croisée (Cross Entropy, CE), un algorithme d’AIS destiné à l’estimation de probabilités d’événements rares. L’efficacité de ces algorithmes est vérifiée sur plusieurs cas-tests avec un faible budget de simulation. La technique basée sur la projection dans les directions optimales permet d’obtenir des estimations très précises pour des dimensions modérément grandes (plusieurs dizaines). Le couplage avec la projection sur la moyenne reste en revanche performante dans des dimensions de quelques centaines dans la plupart des exemples. Dans tous les cas, les simulations montrent que les méthodes proposées sont plus précises que la CE classique en grande dimension avec un même budget. In many scientific fields, an important goal consists in estimating expectations of a function of interest according to a given probability distribution. The function can be considered as a computationally demanding black box function. Importance Sampling (IS) is a well-known method to estimate such integrals with a small simulation budget. It is a stochastic technique which consists in sampling from an auxiliary distribution instead of the initial one. The IS estimator is based onthe Monte Carlo estimator with importance weights and converges almost surely to the unknown expectation, according to the law of large numbers. However, its variance, as well as the estimation accuracy, strongly depends on the choice of the auxiliary density. A theoretical optimal IS density, minimising the variance, can be defined but is unknown in practice. Hence, the auxiliary density can be chosen in a parametric family, which allows to easily generate samples, in order to approximate the optimal IS distribution. Adaptive Importance Sampling (AIS) algorithms have been developed to find optimal parameters allowing to approach the theoretical target density, by estimating parameters iteratively. However, when the dimension of the parameters space is growing, the parameters estimation is degrading and AIS algorithms, and IS more generally, become inefficient. Then the final expectation estimation becomes inaccurate, because of the accumulation of the parameters estimation errors. Thus, the main goal of the thesis is the improvement of the accuracy of high dimensional IS, using projections in low dimensional subspaces to reduce the number of estimated parameters. We focus specifically on finding influential projection directions for the estimation of the covariance matrix in the Gaussian case (updating the mean vector and the covariance). The first suggested idea is the projection on the one-dimensional subspace spanned by the optimal mean vector. This direction is relevant in particular in the context of rare event probability estimation, because the variance decreases in this direction. The second projection is the optimal projection found by minimising the Kullback-Leibler divergence with the target density. This proposition allows to project in more than one direction contrary to the first technique, and identifies the most influential directions. We test the efficiency of both projections on various examples of expectation estimation, at first in a theoretical context and without adaptive algorithms. Numerical simulations show the significant improvement of the IS estimation accuracy with the two projection techniques and on all examples. We then implement an improvement of the Cross Entropy method (CE), an AIS algorithm for rare event probability estimation, using both projection methods. We check the efficiency of the proposed algorithms on some examples of rare event estimation with a small simulation budget. The projection on the optimal directions give accurate estimations in moderate dimensions (less than 100). The projection on the mean is still efficient in higher dimensions (a few hundreds) in most examples. In all cases, the numerical results show that our proposed algorithms outperform the classical CE by increasing the accuracy with the same budget.
Databáze: OpenAIRE