Un algorithme GMRES robuste au format tensor train
Autor: | Olivier Coulaud, Luc Giraud, Martina Iannacito |
---|---|
Přispěvatelé: | COmposabilité Numerique and parallèle pour le CAlcul haute performanCE (CONCACE), Centre Européen de Recherche et de Formation Avancée en Calcul Scientifique (CERFACS)-Airbus [France]-Inria Bordeaux - Sud-Ouest, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria), Inria, Plafrim |
Jazyk: | angličtina |
Rok vydání: | 2022 |
Předmět: | |
Zdroj: | [Research Report] RR-9484, Inria. 2022, pp.1-48 HAL |
Popis: | We consider the solution of linear systems with tensor product structure using a GMRES algorithm. In order to cope with the computational complexity in large dimension both in terms of floating point operations and memory requirement, our algorithm is based on low-rank tensor representation, namely the Tensor Train format. In a backward error analysis framework, we show how the tensor approximation affects the accuracy of the computed solution. With the bacwkward perspective, we investigate the situations where the $(d+1)$-dimensional problem to be solved results from the concatenation of a sequence of $d$-dimensional problems (like parametric linear operator or parametric right-hand side problems), we provide backward error bounds to relate the accuracy of the $(d+1)$-dimensional computed solution with the numerical quality of the sequence of $d$-dimensional solutions that can be extracted form it. This enables to prescribe convergence threshold when solving the $(d+1)$-dimensional problem that ensures the numerical quality of the $d$-dimensional solutions that will be extracted from the $(d+1)$-dimensional computed solution once the solver has converged. The above mentioned features are illustrated on a set of academic examples of varying dimensions and sizes.; Nous considérons la résolution de systèmes linéaires avec une structure de produit tensoriel en utilisant un algorithme GMRES. Afin de faire face à la complexité de calcul en grande dimension, à la fois en termes d'opérations en virgule flottante et d'exigences de mémoire, notre algorithme est basé sur une représentation tensorielle à faible rang, à savoir le format Tensor Train. Dans un cadre d'analyse d'erreur inverse, nous montrons comment l'approximation tensorielle affecte la précision de la solution calculée. Dans une perspective d'erreur inverse, nous étudions les situations où le problème de dimension $(d+1)$ à résoudre résulte de la concaténation d'une séquence de problèmes de dimension $d$ (comme les problèmes d'opérateurs linéaires paramétriques ou de second membres paramétriques), nous fournissons des bornes d'erreur inverse pour relier la précision de la solution calculée de dimension $(d+1)$ à la qualité numérique de la séquence de solutions de dimension $d$ qui peut être extraite de celle-ci. Cela permet de prescrire un seuil de convergence lors de la résolution du problème à $(d+1)$ dimensions qui garantit la qualité numérique des solutions à $d$ dimensions qui seront extraites de la solution calculéeenà $(d+1)$ dimensions une fois que le solveur aura convergé. Les caractéristiques mentionnées ci-dessus sont illustrées sur un ensemble d'exemples académiques de dimensions et de tailles variables. |
Databáze: | OpenAIRE |
Externí odkaz: |