Apprentissage en ligne d’une signature audiovisuelle pour la ré-identification de personne
Autor: | Decroix, François-Xavier, Lerasle, Frédéric, Pinquier, Julien, Ferrané, Isabelle |
---|---|
Přispěvatelé: | Équipe Robotique, Action et Perception (LAAS-RAP), Laboratoire d'analyse et d'architecture des systèmes (LAAS), Université Toulouse Capitole (UT Capitole), Université de Toulouse (UT)-Université de Toulouse (UT)-Institut National des Sciences Appliquées - Toulouse (INSA Toulouse), Institut National des Sciences Appliquées (INSA)-Université de Toulouse (UT)-Institut National des Sciences Appliquées (INSA)-Université Toulouse - Jean Jaurès (UT2J), Université de Toulouse (UT)-Université Toulouse III - Paul Sabatier (UT3), Université de Toulouse (UT)-Centre National de la Recherche Scientifique (CNRS)-Institut National Polytechnique (Toulouse) (Toulouse INP), Université de Toulouse (UT)-Université Toulouse Capitole (UT Capitole), Université de Toulouse (UT), Équipe Structuration, Analyse et MOdélisation de documents Vidéo et Audio (IRIT-SAMoVA), Institut de recherche en informatique de Toulouse (IRIT), Université de Toulouse (UT)-Université de Toulouse (UT)-Université Toulouse - Jean Jaurès (UT2J), Université de Toulouse (UT)-Toulouse Mind & Brain Institut (TMBI), Université Toulouse - Jean Jaurès (UT2J), Université de Toulouse (UT)-Université de Toulouse (UT)-Université Toulouse III - Paul Sabatier (UT3), Opération neOCampus - IRIT - Université Toulouse III Paul Sabatier (Toulouse, France), Université Toulouse - Jean Jaurès (UT2J)-Université Toulouse 1 Capitole (UT1), Université Fédérale Toulouse Midi-Pyrénées-Université Fédérale Toulouse Midi-Pyrénées-Centre National de la Recherche Scientifique (CNRS)-Université Toulouse III - Paul Sabatier (UT3), Université Fédérale Toulouse Midi-Pyrénées-Institut National des Sciences Appliquées - Toulouse (INSA Toulouse), Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Institut National Polytechnique (Toulouse) (Toulouse INP), Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse - Jean Jaurès (UT2J)-Université Toulouse 1 Capitole (UT1), Université Fédérale Toulouse Midi-Pyrénées, Université Toulouse 1 Capitole (UT1), Université Fédérale Toulouse Midi-Pyrénées-Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse - Jean Jaurès (UT2J)-Université Toulouse III - Paul Sabatier (UT3), Université Fédérale Toulouse Midi-Pyrénées-Centre National de la Recherche Scientifique (CNRS)-Institut National Polytechnique (Toulouse) (Toulouse INP), Université Fédérale Toulouse Midi-Pyrénées-Université Toulouse 1 Capitole (UT1) |
Jazyk: | francouzština |
Rok vydání: | 2016 |
Předmět: | |
Zdroj: | Actes RFIA'16 Congrès Reconnaissance des Formes et Intelligence Artificielle (RFIA'16) Congrès Reconnaissance des Formes et Intelligence Artificielle (RFIA'16), Jun 2016, Clermont Ferrand, France. pp.1-8 |
Popis: | National audience; L'intelligence ambiante pose entre autres le problème de la détection des activités humaines, l'enjeu est par exemple la gestion automatique de l'énergie ainsi que l'analyse des interactions entre les usagers partageant le lieu. Pour ca-ractériser les interactions entre individus ou entre un in-dividu et l'infrastructure d'un bâtiment, une tâche de ré-identification des usagers du lieu lors de leur déplacement est nécessaire et l'utilisation de modèles multimodaux per-met clairement de robustifier cette ré-identification. Dans cet article, nous proposons une méthode de fusion audiovi-suelle, introduisant un nouvel indice de confiance de zones de saillance audio-vidéo, pour l'apprentissage d'une signature audiovisuelle d'une personne. Mots Clef Signature audiovisuelle, fusion audio-vidéo, ré-identification de personne. Abstract In intelligent environments, activity detection is a necessary pre-processing step for adaptive energy management and interaction with humans. To characterize the interactions between individuals or between an individual and the infrastructure of a building, a re-identification process is required and using multimodal models improves its robust-ness. In this paper, we propose a method for audiovisual fusion , introducing a novel confidence index of audio-video salience zones, for training an audiovisual signature of a person. |
Databáze: | OpenAIRE |
Externí odkaz: |