Learning filter scale and orientation in convolutional neural networks

Autor: Çam, İlker
Přispěvatelé: Tek, Faik Boray, Bilgisayar Mühendisliği Anabilim Dalı, Işık Üniversitesi, Fen Bilimleri Enstitüsü, Bilgisayar Mühendisliği Yüksek Lisans Programı, Çam, İlker
Jazyk: angličtina
Rok vydání: 2019
Předmět:
Popis: Text in English ; Abstract: English and Turkish Includes bibliographical references (leaves 38-40) xi, 40 leaves Convolutional neural networks have many hyper-parameters such as filter size, number of filters, and pooling size, which require manual tuning. Though deep stacked structures are able to create multi-scale and hierarchical representations, manually fixed filter sizes limit the scale of representations that can be learned in a single convolutional layer. Can we adaptively learn to scale the filters on training time? Proposed adaptive filter model can learn the scale and orientation parameters of filters using backpropagation. Therefore, in a single convolution layer, we can create filters of different scale and orientation that can adapt to small or large features and objects. The proposed model uses a relatively large base size (grid) for filters. In the grid, a differentiable function acts as an envelope for the filters. The envelope function guides effective filter scale and shape/orientation by masking the filter weights before the convolution. Therefore, only the weights in the envelope are updated during training. In this work, we employed a multivariate (2D) Gaussian as the envelope function and showed that it can grow, shrink, or rotate by updating its covariance matrix during backpropagation training. We tested the model with its basic settings to show the collaboration of weight matrix with envelope function is possible. A deeper architecture was used to show the performance on deeper and wider networks. We tested the new filter model on MNIST, MNIST-cluttered, and CIFAR-10 datasets. Compared the results with the networks that used conventional convolution layers. The results demonstrate that the new model can effectively learn and produce filters of different scales and orientations in a single layer. Moreover, the experiments show that the adaptive convolution layers perform equally; or better, especially when data includes objects of varying scale and noisy backgrounds. Evrişimsel sinir ağlarında filtre boyutu, sayısı ve ortaklama boyutu elle seçilmektedir. Derin katmanlı sinir ağları hiyerarşik çok ölçekli temsiller öğrenebilmesine rağmen, sabit filtre boyutları farklı ölçekteki öğrenilebilecek filtre sayısını sınırlamaktadır. Aynı katmanda farklı ölçeklerde filtreleri eğitim aşamasında öğrenebilen bir mimari olabilir mi? Önerilen filtre modelimizde filtre ölçek ve oryantasyonları geriye yayılım ile öğrenilebilir. Bu şekilde, aynı evrişimsel katmanda farklı ölçek ve oryantasonlarla büyük ve küçük objeleri tanımlayabiliriz. Önerilen model, nispeten büyük filtre (ızgara) boyutlarına sahiptir. Türevi olan bir çevreleyici fonksiyon ile filtrelerin efektif ölçeklerini ve oryantasyonlarını, evrişim işlemine girmeden, katsayı matrislerini maskeleyebiliriz. Bu sayede, sadece çevreleyici fonksiyon içerisindeki katsayılar eğitilecektir. Bu çalışmamızda, çok değişkenli (2 Boyutlu) Gaussian fonksiyonunu çevreleyici fonksiyon olarak kullandık. Kovaryans matrisinin geriye yayılım yöntemiyle eğitilmesiyle, çevreyeliyici fonksiyonun büyüyüp, küçüldüğünü ve dönebildiğini gösterdik. Çevreliyici fonksiyonun eğitilebildiğini ve katsayılarla işbirliğini, modelin en basit haliyle deneyimledik. Derin katmanlardaki performansını, derin ve geniş mimariler üzerinde çalıştırdık ve performansını izledik. Önerilen modeli, MNIST, MNIST-cluttered ve CIFAR-10 veri kümelerinde çaıştırdık ve geleneksel evrişimsel sinir ağ mimarilerindeki çalışma performanslarıyla karşılaştırdık. Sonuçlar, önerdiğimiz modelin, farklı ölçek ve oryanyasyonlarda, aynı katmanda, filtreler öğrenebildiğini gösterdi. Ayrıca, deneylerimiz, adaptifevrişimsel katmanının aynı, özellikle veri kümesinde farklı ölçeklerde obje ve gürültülü arkaplan içeren veri kümelerinde daha iyi çalıştığını gösterdik. Machine Learning Classification Neural Networks Back-propagation Auto-encoders Convolutional Neural Networks Convolutional Layer Non-linearity Layer Pooling Layer Related Adaptive Neural Networks Method Envelope Function Selecting an Envelope Function An alternative envelope function Initialization Implementation Experiments Filter Guide Experiments Learning a Gaussian filter Learning a Gaussian and edge filter Application on deeper and wider networks Scale and orientation experiments MNIST MNIST Cluttered CIFAR-10
Databáze: OpenAIRE