Dense tracking, mapping and scene labeling using a depth camera

Autor: Eduardo Caicedo-Bravo, Pedro Antonio Piniés-Rodríguez, Andrés Alejandro Díaz-Toro, Lina María Paz-Pérez
Přispěvatelé: Universidad de Antioquia.
Jazyk: angličtina
Rok vydání: 2018
Předmět:
representación volumétrica
sensor de profundidad
etiquetamiento de múltiples instancias
Computer science
Graphics hardware
ComputingMethodologies_IMAGEPROCESSINGANDCOMPUTERVISION
lcsh:Technology
Robustness (computer science)
Computer vision
Marching cubes
lcsh:T
business.industry
3D reconstruction
General Engineering
Iterative closest point
Dense reconstruction
camera tracking
depth sensor
volumetric representation
object detection
multiple instance labeling

reconstrucción densa
Object (computer science)
Object detection
Reconstrucción densa
localización de la cámara
sensor de profundidad
representación volumétrica
detección de objetos
etiquetamiento de múltiples instancias

localización de la cámara
lcsh:TA1-2040
Trajectory
detección de objetos
Artificial intelligence
lcsh:Engineering (General). Civil engineering (General)
business
Zdroj: Revista Facultad de Ingeniería, Iss 86, Pp 54-69 (2018)
Popis: Presentamos un sistema de localización con información densa, reconstrucción 3D, y detección de objetos en ambientes tipo escritorio, usando una cámara de profundidad; el sensor Kinect. La cámara se mueve manualmente mientras se estima su posición, y se construye un modelo denso con información de color de la escena que se actualiza permanentemente. El usuario puede, alternativamente, acoplar el módulo de detección de objetos (YOLO: you only look once 1) para detectar y propagar al modelo información de categorías de objetos comúnmente encontrados sobre escritorios, como monitores, teclados, libros, vasos y laptops, obteniendo un modelo con color asociado a la categoría del objeto. La posición de la cámara es estimada usando una técnica modelo-frame con el algoritmo iterativo de punto más cercano (ICP, iterative closest point) con resolución en niveles, logrando una trayectoria libre de deriva, robustez a movimientos rápidos de la cámara y a condiciones variables de luz. Simultáneamente, los mapas de profundidad son fusionados en una estructura volumétrica desde las posiciones estimadas de la cámara. Para visualizar una representación explícita de la escena se emplea el algoritmo marching cubes. Los algoritmos de localización, fusión, marching cubes y detección de objetos fueron implementados usando hardware para procesamiento gráfico con el fin de mejorar el desempeño del sistema. Se lograron resultados sobresalientes en la posición de la cámara, alta calidad en la geometría y color del modelo, estabilidad del color usando el módulo de detección de objetos (robustez a detecciones erróneas) y manejo exitoso de múltiples instancias de la misma categoría.
Databáze: OpenAIRE