Zobrazeno 1 - 8
of 8
pro vyhledávání: '"Lertrusdachakul Intuon"'
Publikováno v:
EPJ Web of Conferences, Vol 124, p 00005 (2016)
To tackle thorax movement from CT images, we have developed a platform to simulate a customized breathing cycle, where the pulmonary movement has been considered only at the rough border of the whole lung by artificial neural networks (ANN). The goal
Externí odkaz:
https://doaj.org/article/e424bb1c59d84f2184762ad7c5ea4484
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
International Journal of Advanced Manufacturing Technology. May2015, Vol. 78 Issue 5-8, p1201-1210. 10p. 5 Color Photographs, 1 Black and White Photograph, 8 Diagrams, 3 Charts, 3 Graphs.
Publikováno v:
France. 124 ( 00005), pp.9, 2016, EPJ Web of Conferences, 〈10.1051/epjconf/201612400005〉
France. 124 ( 00005), pp.9, 2016, EPJ Web of Conferences, ⟨10.1051/epjconf/201612400005⟩
France. 124 ( 00005), pp.9, 2016, EPJ Web of Conferences, ⟨10.1051/epjconf/201612400005⟩
International audience; To tackle thorax movement from CT images, we have developed a platform to simulate a customized breathing cycle, where the pulmonary movement has been considered only at the rough border of the whole lung by artificial neural
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=dedup_wf_001::a177c3b9ec130232aa3430b984ed4498
https://hal.archives-ouvertes.fr/hal-01386113
https://hal.archives-ouvertes.fr/hal-01386113
Autor:
Lertrusdachakul, Intuon
This paper presents a novel 3D recovery method based on structured light. This method unifies depth from focus (DFF) and depth from defocus (DFD) techniques with the use of a dynamic (de)focused projection. With this approach, the image acquisition s
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
2010 25th International Conference of Image & Vision Computing New Zealand; 1/ 1/2010, p1-8, 8p