УСКОРЕНИЕ ФАЗЫ АДАПТАЦИИ ОПТИМИЗАЦИОННОГО МЕТА-ОБУЧЕНИЯ
Jazyk: | angličtina |
---|---|
Rok vydání: | 2022 |
Předmět: |
пристрілкове навчання
мета-навчання Model-Agnostic Meta-Learning MAML час адаптації швидкість адаптації оптимізаційне мета-навчання few-shot learning meta-learning Model-Agnostic Meta-Learning MAML adaptation time adaptation speed optimization-based meta-learning пристрелочное обучение мета-обучение Model-Agnostic Meta-Learning MAML время адаптации скорость адаптации оптимизационное мета-обучение |
Zdroj: | Radio Electronics, Computer Science, Control; No. 1 (2022): Radio Electronics, Computer Science, Control; 82 Радиоэлектроника, информатика, управление; № 1 (2022): Радиоэлектроника, информатика, управление; 82 Радіоелектроніка, iнформатика, управління; № 1 (2022): Радіоелектроніка, інформатика, управління; 82 |
ISSN: | 1607-3274 2313-688X |
Popis: | Context. Neural networks require a large amount of annotated data to learn. Meta-learning algorithms propose a way to decrease number of training samples to only a few. One of the most prominent optimization-based meta-learning algorithms is MAML. However, its adaptation to new tasks is quite slow. The object of study is the process of meta-learning and adaptation phase as defined by the MAML algorithm.Objective. The goal of this work is creation of an approach, which should make it possible to: 1) increase the execution speed of MAML adaptation phase; 2) improve MAML accuracy in certain cases. The testing results will be shown on a publicly available few-shot learning dataset CIFAR-FS.Method. In this work an improvement to MAML meta-learning algorithm is proposed. Meta-learning procedure is defined in terms of tasks. In case of image classification problem, each task is to try to learn to classify images of new classes given only a few training examples. MAML defines 2 stages for the learning procedure: 1) adaptation to the new task; 2) meta-weights update. The whole training procedure requires Hessian computation, which makes the method computationally expensive. After being trained, the network will typically be used for adaptation to new tasks and the subsequent prediction on them. Thus, improving adaptation time is an important problem, which we focus on in this work. We introduce lambda pattern by which we restrict which weight we update in the network during the adaptation phase. This approach allows us to skip certain gradient computations. The pattern is selected given an allowed quality degradation threshold parameter. Among the pattern that fit the criteria, the fastest pattern is then selected. However, as it is discussed later, quality improvement is also possible is certain cases by a careful pattern selection.Results. The MAML algorithm with lambda pattern adaptation has been implemented, trained and tested on the open CIFAR-FS dataset. This makes our results easily reproducible.Conclusions. The experiments conducted have shown that via lambda adaptation pattern selection, it is possible to significantly improve the MAML method in the following areas: adaptation time has been decreased by a factor of 3 with minimal accuracy loss. Interestingly, accuracy for one-step adaptation has been substantially improved by using lambda patterns as well. Prospects for further research are to investigate a way of a more robust automatic pattern selection scheme. Актуальность. Нейронные сети требуют большого количества размеченных данных для обучения. Алгоритмы мета-обучения предлагают способ обучаться лишь по нескольким примерам. Одним из наиболее выдающихся алгоритмов оптимизационного мета-обучения является MAML. Однако, его процедура адаптации к новым задачам достаточно медленная. Объектом исследования является процесс мета-обучения и фаза адаптации в виде, как она определена в алгоритме MAML. Цель. Цель данной работы – создание подхода, которых позволит: 1) уменьшить время выполнения адаптации алгоритма MAML; 2) улучшить качество алгоритма в ряде случаев. Показать результаты тестирования на открытом наборе данных для мета-обучения CIFAR-FS. Метод. В данной работе предложено улучшение алгоритма мета-обучения MAML. Процедура мета-обучения определяется через так называемые «задачи». В случае классификации изображений каждая задача является попыткой научиться классифицировать изображения новых классов по нескольким обучающим примерам. В алгоритме MAML определено 2 шага в процедуре обучения: 1) адаптация к новой задаче; 2) обновления мета-параметров сети. Вся процедура обучения требует вычисление гессиана, что делает метод вычислительно сложным. После обучения сеть, как правило, будет использоваться для адаптации к новым задач и последующей классификации на них. Таким образом, улучшение времени адаптации сети является важной проблемой. Именно на этой проблеме мы и фокусируемся в данной работе. Нами предложено шаблон Λ (лямбда), с помощью которого мы ограничиваем, какие параметры сети следует обновлять во время шага адаптации. Данный подход позволяет не вычислять градиенты для выбранных параметров и таким образом уменьшить количествонеобходимых вычислений. Шаблон выбирается в рамках значения параметра разрешенного падения качества сети. Среди шаблонов, которые соответствуют заданному критерию, выбирается наиболее быстрый. Однако, як будет показано дальше, в некоторых случаях также возможно повышение качества с помощью правильно выбранного шаблона адаптации. Результаты. Было реализовано, обучено и проверено качество работы алгоритма MAML с шаблоном адаптации Λ на открытом наборе данных CIFAR-FS, что делает полученные результаты легко воспроизводимыми. Выводы. Проведенные эксперименты показывают, что с выбором шаблона Λ возможно значительное улучшение метода MAML в следующих областях: время адаптации было уменьшено в 3 раза при минимальных потерях в качестве. Интересно и то, что для одношаговой адаптации качество значительно выросло при условии использования выбранного шаблона. Перспективы дальнейших исследований могут заключаться в разработке более робастного метода автоматического выбора шаблонов. Актуальність. Нейронні мережі потребують багато розмічених даних для навчання. Алгоритми мета-навчання пропонують спосіб навчатися лише за декількома прикладами. Один з найзначніших алгоритмів оптимізаційного мета-навчання – це MAML. Однак, його процедура адаптації до нових задач є досить повільною. Об’єктом дослідження є процес мета-навчання та фаза адаптації в тому вигляді, як її визначено в алгоритмі MAML. Мета. Метою даної роботи є створення підходу, що дозволить: 1) зменшити час виконання адаптації алгоритму MAML; 2) покращити якість алгоритму в ряді випадків. Показати результати тестування на публічно доступному наборі даних для мета-навчання CIFAR-FS. Метод. В даній роботі запропоновано покращення алгоритму мета-навчання MAML. Процедура мета-навчання визначається через так звані «задачі». В разі класифікації зображень кожна задача є спробою навчитися класифікувати зображення нових класів лише за декількома навчальними прикладами. В алгоритмі MAML визначено 2 кроки процедури навчання: 1) адаптація до нової задачі; 2) оновлення мета-параметрів мережі. Вся тренувальна процедура потребує обчислення гесіану, що робить метод обчислювально складним. Після навчання мережа, зазвичай, буде використовуватися для адаптації до нових задач та наступної класифікації на них. Таким чином, покращення часу адаптації мережі є важливою проблемою. Саме на цій проблемі ми фокусуємося в даній роботи. Нами запропоновано шаблон Λ (лямбда) за допомогою якого ми обмежуємо, які параметри мережі слід оновлювати під час кроку адаптації. Даний підхід дозволяє не обчислювати градієнти для обраних параметрів та таким чином зменшити кількість необхідних обчислень. Шаблон обирається в межах параметру дозволеного зменшення якості мережі. Серед шаблонів, що відповідають заданому критерію, обирається найшвидший. Однак, як буде показано далі, в деяких випадках також можливе підвищення якості за допомогою правильно обраного шаблону адаптації. Результати. Було реалізовано, навчено та перевірено якість роботи алгоритму MAML із шаблоном адаптації Λ на відкритому наборі даних CIFAR-FS, що робить отримані результати легко відтворюваними. Висновки. Проведені експерименти показують, що із вибором шаблону Λ можливе значне покращення методу MAML в наступних областях: час адаптації було зменшено в 3 рази за мінімальних втрат якості. Цікаво, що для однокрокової адаптації якість значно виросла за умови використання запропонованого шаблону. Перспективи подальших досліджень можуть полягати в розробці більш робастного методу автоматичного вибору шаблонів. |
Databáze: | OpenAIRE |
Externí odkaz: |