Popis: |
Many scenarios involve the representation of data as multidimensional arrays called tensors, thus it is crucial to take this structure into account when analyzing the data. The curse of dimensionality, which refers to the exponential growth of processing and storage costs of large order tensors, is a modern scientific bottleneck. Consequently, tensor factorizations are crucial to reduce the complexity of tensor storage without sacrificing its multidimensionality. The Canonical Polyadic Decomposition (CPD) is the most commonly used tensor decomposition since it permits the representation of tensors as interpretable components. It is however difficult to determine the exact number of components (i.e.rank-one tensors) of this model, which constitutes its most significant limitation. For this purpose, the first part of this thesis proposes a convex optimization-based method called FARAC for Joint FActors and RAnk Canonical estimation that jointly estimates the CP factors and the canonical rank. The FARAC method is formulated as a convex optimization problem in which a sparse promoting constraint is added to the super diagonal of the core tensor of the CPD, whereas the Frobenius norm of the off-diagonal terms is constrained to be bounded. An alternated minimization strategy for the Lagrangian-based cost function is then proposed to solve the optimization problem.The second part of this thesis will focus on machine learning for tensor data. Machine learning algorithms often use similarity measures to perform supervised and unsupervised tasks, such as classification and clustering. Similarity can be determined using kernel methods, which are popular because of their performance in a variety of learning algorithms.Firstly, a method for extracting features from the CPD is analyzed, and it is demonstrated that the scaling ambiguity of the CPD negatively influences its performance. Accordingly, their kernel function cannot theoretically satisfy the properties of a kernel function. Using the extension of Support Vector Machines on tensors for classification, the model shows poor performance on real datasets. The performance of classification can be improved by modifying kernel selection based on Grassmannian geometry.The second contribution in the context of supervised tensor learning aims to break the curse of dimensionality by using the Tensor Train Decomposition (TTD) which enjoys the benefits of good stability properties. As TT-cores are the building blocks for TTD, a kernel function between two tensors is defined based on their similarities with respect to their respective TT-cores. As TTD is not unique, learning is considered on the subspaces spanned by TT-cores defined using the tensor-linear algebra of third-order tensors.While some of the ambiguities model-based have been mitigated, others still remain, so, a third contribution has been proposed to define similarities between TT-cores on the basis of the subspaces spanned by their second unfoldings. In addition to being computationally efficient, this approach will eliminate all ambiguities associated with the TT model.; De nombreux scénarios impliquent la représentation des données sous forme de tableaux multidimensionnels appelés tenseurs, il est donc crucial de prendre en compte cette structure lors de l'analyse des données. La malédiction de la dimensionnalité est un problème associé aux tenseurs d'ordre élevé et qui fait référence à l'augmentation exponentielle des coûts de traitement et de stockage. Par conséquent, les décompositions tensorielles sont cruciales pour réduire la complexité du stockage de tenseurs sans sacrifier leur multidimensionnalité.La décomposition canonique polyadique (CP) est la décomposition de tenseurs la plus couramment utilisée car elle permet la représentation des tenseurs en tant que composants interprétables (tenseurs de rang 1). Il est cependant difficile de déterminer le nombre exact de composants de ce modèle, ce qui constitue sa limite la plus importante. Pour cela, la première partie de cette thèse propose une méthode basée sur l'optimisation convexe pour estimer conjointement les facteurs CP et le rang canonique appelée FARAC (Joint FActors and RANk canonical estimation). La méthode FARAC est formulée comme un problème d'optimisation convexe dans lequel une contrainte de parcimonie est rajoutée à la superdiagonale du tenseur central de la CP, tandis que la norme de Frobenius des termes hors diagonaux est contrainte d'être bornée. Une stratégie de minimisation alternée du Lagrangien est ensuite proposée pour résoudre le problème d'optimisation.La deuxième partie de cette thèse portera sur l'apprentissage automatique pour les données tensorielles. Les algorithmes d'apprentissage automatique utilisent souvent des mesures de similarité pour effectuer des tâches supervisées et non supervisées, telles que la classification et le regroupement. La similarité peut être déterminée à l'aide des méthodes à noyau, qui sont populaires en raison de leurs performances dans une variété d'algorithmes d'apprentissage.Tout d'abord, une méthode proposant un noyau tensoriel basé sur l'extraction de facteurs à partir de la CP est analysée. Il est ensuite démontré que celle-ci ne satisfait pas théoriquement les propriétés d'une fonction noyau à cause de l'ambiguïté de mise à l'échelle de la CP. Celle-ci affecte négativement ses performances de classification. En modifiant le choix du noyau basé sur la géométrie Grassmannienne, il est démontré que les performances de classification peuvent être améliorées.Pour casser la malédiction de la dimensionnalité, la décomposition en trains de tenseurs (TTD) qui bénéficie de bonnes propriétés de stabilité serait utilisée pour définir une nouvelle fonction noyau dans l'espace tensoriel. Comme les cœurs TT sont les éléments constitutifs de la TTD, la fonction noyau proposée entre deux tenseurs est définie en fonction des similitudes entre leus coeurs TT respectifs. Comme la TTD n'est pas unique, les sous-espaces engendrés par les cœurs TT seront considérés. Ceux-ci sont définis à l'aide de l'algèbre linéaire des tenseurs d'ordre 3.Alors que certaines des ambiguïtés ont été éliminées, d'autres existent toujours. Alors, une autre fonction noyau serait proposée qui définit les similitudes entre les cœurs TT sur la base des sous-espaces engendrés par leurs deuxième dépliements . En plus d'être efficace numériquement, cette approche éliminera toutes les ambiguïtés associées au modèle TT. |