Zobrazeno 1 - 10
of 10
pro vyhledávání: '"Eichhardt, Ivan"'
We propose a new algorithm for finding an unknown number of geometric models, e.g., homographies. The problem is formalized as finding dominant model instances progressively without forming crisp point-to-model assignments. Dominant instances are fou
Externí odkaz:
http://arxiv.org/abs/2103.13875
We propose ways to speed up the initial pose-graph generation for global Structure-from-Motion algorithms. To avoid forming tentative point correspondences by FLANN and geometric verification by RANSAC, which are the most time-consuming steps of the
Externí odkaz:
http://arxiv.org/abs/2011.11986
Autor:
Eichhardt, Ivan, Barath, Daniel
We propose a new approach for combining deep-learned non-metric monocular depth with affine correspondences (ACs) to estimate the relative pose of two calibrated cameras from a single correspondence. Considering the depth information and affine featu
Externí odkaz:
http://arxiv.org/abs/2007.10082
Autor:
Eichhardt, Ivan, Barath, Daniel
The technique requires the epipolar geometry to be pre-estimated between each image pair. It exploits the constraints which the camera movement implies, in order to apply a closed-form correction to the parameters of the input affinities. Also, it is
Externí odkaz:
http://arxiv.org/abs/1905.00519
Publikováno v:
In Solar Energy 1 September 2018 171:171-184
Autor:
Molnár, József, Eichhardt, Iván
Publikováno v:
In Computer Vision and Image Understanding April 2018 169:90-107
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
2013 IEEE 4th International Conference on Cognitive Infocommunications (CogInfoCom); 2013, p301-306, 6p