Autor: |
Decelle, Rémi |
Přispěvatelé: |
Speech Modeling for Facilitating Oral-Based Communication (MULTISPEECH), Inria Nancy - Grand Est, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Department of Natural Language Processing & Knowledge Discovery (LORIA - NLPKD), Laboratoire Lorrain de Recherche en Informatique et ses Applications (LORIA), Institut National de Recherche en Informatique et en Automatique (Inria)-Université de Lorraine (UL)-Centre National de la Recherche Scientifique (CNRS)-Institut National de Recherche en Informatique et en Automatique (Inria)-Université de Lorraine (UL)-Centre National de la Recherche Scientifique (CNRS)-Laboratoire Lorrain de Recherche en Informatique et ses Applications (LORIA), Institut National de Recherche en Informatique et en Automatique (Inria)-Université de Lorraine (UL)-Centre National de la Recherche Scientifique (CNRS)-Université de Lorraine (UL)-Centre National de la Recherche Scientifique (CNRS), Télécom Nancy, Emmanuel Vincent, Ken Déguernel, ANR-14-CE24-0002,DYCI2,Dynamiques créatives de l'interaction improvisée(2014) |
Jazyk: |
francouzština |
Rok vydání: |
2017 |
Předmět: |
|
Zdroj: |
Intelligence artificielle [cs.AI]. 2017 |
Popis: |
National audience; The DYCI2 ANR project aims to explore interactions between humans and artificial agents in the field of music improvisation. Interactive learning, one of the main's project research area, proposes models able to detect musical structures. All of these research are based on the OMax paradigm, an automatic music improvisation system. Unfortunately, such a system still creates false notes. Is it possible to have the system learned not to do those mistakes again ?To answer that question, we propose a melodic classification into two classes : the ones which has at least one wrong note, and the others which have no ones. This classification allows us to enhance the system by using an reinforcement learning algorithm. After introducing some musical words and explaining what are LSTMs, we present our neural network model which is going to classify melodies. We also propose a musical encoding scheme. We use Deep Q-Learning as reinforcement learning algorithm to improve the current system. We evaluate our neural network model with classical criteria. The final enhancement will be evaluate by listening to the melodies. At last, we discuss about our strategies.; Le projet ANR DYCI2 vise à explorer les interactions entre l'homme et des agents artificiels dans le domaine de l'improvisation musicale. L'apprentissage interactif, l'un des domaines de recherche du projet, veut mettre en avant des modèles capables de capturer les structures musicales. Toutes les recherches se basent sur le paradigme OMax, un système automatique d'improvisation. Malheureusement, ce système génère encore des fausses notes. Est-il possible d'apprendre au système à ne plus commettre de telles erreurs ? Pour répondre à cette problématique, ce mémoire propose une méthode pour classifier les mélodies en deux catégories : celles qui ont au moins une fausse note et celles qui n'en ont aucune. Une telle classification devra permettre d'améliorer le système actuel à l'aide de l'apprentissage par renforcement. Après avoir défini quelques notions musicales et expliqué ce que sont les LSTMs, nous proposons un modèle de réseau de neurones pour la classification. Nous proposons également un procédé pour encoder les notes musicales. Nous utilisons le Deep Q-Learning en tant qu'algorithme d'apprentissage par renforcement. L'évaluation du réseau neuronal repose sur les critères classiques. L'évaluation de l'amélioration du système est basée sur l'écoute des mélodies générées. Enfin, nous discutons des méthodes utilisées. |
Databáze: |
OpenAIRE |
Externí odkaz: |
|