Popis: |
This degree project examined different aspects of real-time uncertainty estimation for semantic segmentation deep learning networks in an autonomous driving setting. Two main tracks were taken. The first examined the possibility to make existing predictions more reliable by tuning the prediction confidence in a post-processing step after training using a method called temperature scaling (TS). Additionally, three TS variations were proposed; class-wise, binned class-wise and spatial TS. The second track explored possible ways for single networks to produce diverse predictions by interpreting network predictions as parameters of a Dirichlet distribution. This would enable single networks to express uncertainty in terms of aleatoric (data) and epistemic (model) uncertainty. Two methods were considered; ensemble distribution distillation (EnDD) and evidential deep learning. For both of these methods, alternative definitions of the Dirichlet parameters were proposed. The results showed that the proposed TS methods improved the reliability of the confidence scores, but it was at a comparable or worse level to previous TS methods. The proposed Dirichlet definition for evidential deep learning led to more reliable predicted probabilities, but neither the original nor proposed variant were able to distinguish between aleatoric and epistemic uncertainty. The proposed EnDD variant resulted in more stable training compared to the original. It was also able to express intuitive aleatoric and epistemic uncertainty estimates that resembled those of the ensemble that was used to train it. Detta examensarbete undersökte olika aspekter av osäkerhetsskattning i realtid för semantisk segmentering med djupa neurala nätverk för autonoma fordon. Två huvudspår togs. Den första undersökte möjligheten till att göra befintliga förutsägelser mer tillförlitliga genom att justera förutsägelsens uppskattade sannolikhet i ett efterbehandlingssteg efter träning med metoden temperature scaling (TS). Dessutom föreslogs tre variationer av TS; klassvis, klassvis i fack och rumslig TS. Det andra spåret utforskade möjliga sätt för enskilda nätverk att producera olika förutsägelser genom att tolka prediktionerna som parametrar för en Dirichlet-distribution. Detta skulle göra det möjligt för nätverk att uttrycka osäkerhet av typerna aleatorisk (data) och epistemisk (modell). Två metoder för detta övervägs; ensemble distribution distillation (EnDD) och evidential deep learning. För båda dessa metoder föreslogs alternativa definitioner av Dirichlet-parametrarna. Resultaten visade att de föreslagna TS-metoderna förbättrade tillförlitligheten hos sannolikheterna i förutsägelserna, men endast till en nivå jämförbar med tidigare TS-metoder. Den föreslagna Dirichlet-definitionen för evidential deep learning ledde till mer pålitliga förutsagda sannolikheter, men varken den ursprungliga eller den föreslagna varianten kunde skilja mellan aleatorisk och epistemisk osäkerhet. Den föreslagna EnDD-varianten resulterade i mer stabil träning jämfört med originalet. Den kunde också uttrycka intuitiva aleatoriska och epistemiska osäkerhetsskattningar som liknade de från ensemblen som modellen tränats på. |