Zobrazeno 1 - 2
of 2
pro vyhledávání: '"Zhu, Ruisheng"'
We present a novel framework to learn to convert the perpixel photometric information at each view into spatially distinctive and view-invariant low-level features, which can be plugged into existing multi-view stereo pipeline for enhanced 3D reconst
Externí odkaz:
http://arxiv.org/abs/2103.14794
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.