Dense tracking, mapping and scene labeling using a depth camera
Autor: | Eduardo Caicedo-Bravo, Pedro Antonio Piniés-Rodríguez, Andrés Alejandro Díaz-Toro, Lina María Paz-Pérez |
---|---|
Přispěvatelé: | Universidad de Antioquia. |
Jazyk: | angličtina |
Rok vydání: | 2018 |
Předmět: |
representación volumétrica
sensor de profundidad etiquetamiento de múltiples instancias Computer science Graphics hardware ComputingMethodologies_IMAGEPROCESSINGANDCOMPUTERVISION lcsh:Technology Robustness (computer science) Computer vision Marching cubes lcsh:T business.industry 3D reconstruction General Engineering Iterative closest point Dense reconstruction camera tracking depth sensor volumetric representation object detection multiple instance labeling reconstrucción densa Object (computer science) Object detection Reconstrucción densa localización de la cámara sensor de profundidad representación volumétrica detección de objetos etiquetamiento de múltiples instancias localización de la cámara lcsh:TA1-2040 Trajectory detección de objetos Artificial intelligence lcsh:Engineering (General). Civil engineering (General) business |
Zdroj: | Revista Facultad de Ingeniería, Iss 86, Pp 54-69 (2018) |
Popis: | Presentamos un sistema de localización con información densa, reconstrucción 3D, y detección de objetos en ambientes tipo escritorio, usando una cámara de profundidad; el sensor Kinect. La cámara se mueve manualmente mientras se estima su posición, y se construye un modelo denso con información de color de la escena que se actualiza permanentemente. El usuario puede, alternativamente, acoplar el módulo de detección de objetos (YOLO: you only look once 1) para detectar y propagar al modelo información de categorías de objetos comúnmente encontrados sobre escritorios, como monitores, teclados, libros, vasos y laptops, obteniendo un modelo con color asociado a la categoría del objeto. La posición de la cámara es estimada usando una técnica modelo-frame con el algoritmo iterativo de punto más cercano (ICP, iterative closest point) con resolución en niveles, logrando una trayectoria libre de deriva, robustez a movimientos rápidos de la cámara y a condiciones variables de luz. Simultáneamente, los mapas de profundidad son fusionados en una estructura volumétrica desde las posiciones estimadas de la cámara. Para visualizar una representación explícita de la escena se emplea el algoritmo marching cubes. Los algoritmos de localización, fusión, marching cubes y detección de objetos fueron implementados usando hardware para procesamiento gráfico con el fin de mejorar el desempeño del sistema. Se lograron resultados sobresalientes en la posición de la cámara, alta calidad en la geometría y color del modelo, estabilidad del color usando el módulo de detección de objetos (robustez a detecciones erróneas) y manejo exitoso de múltiples instancias de la misma categoría. |
Databáze: | OpenAIRE |
Externí odkaz: |