Reinforcement learning in a multi-agent framework for pedestrian simulation
Autor: | Martinez Gil, Francisco Antonio |
---|---|
Přispěvatelé: | Lozano Ibáñez, Miguel, Fernández Rebollo, Fernando, Departament d'Informàtica |
Jazyk: | angličtina |
Rok vydání: | 2014 |
Předmět: |
reinforcement learning
UNESCO::MATEMÁTICAS::Ciencia de los ordenadores::Simulación MATEMÁTICAS::Ciencia de los ordenadores::Inteligencia artificial [UNESCO] CIENCIAS TECNOLÓGICAS::Tecnología de los ordenadores ::Otras [UNESCO] aprendizaje por refuerzo Q-learning and Sarsa simulación de peatones MATEMÁTICAS::Ciencia de los ordenadores::Simulación [UNESCO] UNESCO::CIENCIAS TECNOLÓGICAS::Tecnología de los ordenadores ::Otras Aprendizaje automático UNESCO::MATEMÁTICAS::Ciencia de los ordenadores::Inteligencia artificial |
Zdroj: | RODERIC. Repositorio Institucional de la Universitat de Valéncia instname |
Popis: | El objetivo de la tesis consiste en la utilización de Aprendizaje por refuerzo (Reinforcement Learning) para generar simulaciones plausibles de peatones en diferentes entornos. Metodología Se ha desarrollado un marco de trabajo multi-agente donde cada agente virtual que aprende un comportamiento de navegación por interacción con el mundo virtual en el que se encuentra junto con el resto de agentes. El mundo virtual es simulado con un motor físico (ODE) que está calibrado con parámetros de peatones humanos extraídos de la bibliografía de la materia. El marco de trabajo es flexible y permite utilizar diferentes algoritmos de aprendizaje (en concreto Q-Learning y Sarsa(lambda) en combinación con diferentes técnicas de generalización del espacio de estados (en concreto cuantización Vectorial y tile coding). Como herramientas de análisis de los comportamientos aprendidos se utilizan diagramas fundamentales (relación velocidad/densidad), mapas de densidad, cronogramas y rendimientos (en términos del porcentaje de agentes que consiguen llegar al objetivo). Conclusiones: Tras una batería de experimentos en diferentes escenarios (un total de 6 escenarios distintos) y los correspondientes analisis de resultados, las conclusiones son las siguientes: - Se han conseguido comportamientos plausibles de peatones -Los comportamientos son robustos al escalado y presentan capacidades de abstracción (comportamientos a niveles táctico y de planificación) -Los comportamientos aprendidos son capaces de generar comportamientos colectivos emergentes -La comparación con otro modelo de peatones estandar (Modelo de Helbing) y los análisis realizados a nivel de diagramas fundamentales, indican que la dinámica aprendida es coherente y similar a una dinámica de peatones. |
Databáze: | OpenAIRE |
Externí odkaz: |