Método de Levenberg-Marquardt com correção de segunda ordem

Autor: Bressiani, Michael da Silva
Přispěvatelé: Mora, Erika Alejandra Rada, Pisnitchenko, Fedor, Bueno, Luis Felipe Cesar da Rocha, Elahabad, Majid Fhorgani
Jazyk: portugalština
Rok vydání: 2020
Předmět:
Zdroj: Repositório Institucional da UFABC
Universidade Federal do ABC (UFABC)
instacron:UFABC
Popis: Orientadora: Profa. Dra. Erika Alejandra Rada Mora Coorientador: Prof. Dr. Fedor Pisnitchenko Dissertação (Mestrado) - Universidade Federal do ABC, Programa de Pós Graduação em Matemática, Santo André, 2020 Em ciências aplicadas e Computação, existem diversos problemas que consistem em ajustar um modelo teoricamente formulado a um conjunto de dados obtidos por meio de um experimento ou simulação numérica. Esse ajuste consiste em determinar um conjunto finito de parâmetro para os quais o modelo melhor se encaixa no conjunto de dados obtidos previamente. Uma forma natural de resolver esse tipo de problema é interpreta-lo como um problema de otimização, ou seja, minimizar alguma função objetivo escolhida como a soma dos quadrados das distancias entre modelo e os dados observados. Neste trabalho propomos um método para encontrar mínimos de tais problemas. De modo geral o método consiste em combinar técnicas de tradicionais do método de Levenberg-Marquardt em conjunto com um vetor de correção que contém informações de segunda ordem dos resíduos. Também propomos três modificações desse método as quais visam melhorar sua eficiência. Fizemos a teoria do método, obtendo dois teoremas de convergência além de também realizar teste numéricos. Os resultados parecem promissores, diminuindo significativa mente o número de iteração em alguns casos. In applied and computer science, there are several problems that consist in adjusting a theoretically formulated model to a set of data obtained through an experiment or numerical simulation. This adjustment consists of determining a finite set of parameters for which the model best fits the set of previously obtained data. A natural way to solve this type of problem is to interpret it as an optimization problem, that is, to minimize any objective function chosen as the sum of the squares of the distances between the model and the observed data. In this work, we propose a method to find minimums of such problems. In general, the method consists of combining traditional techniques of the Levenberg-Marquardt method together with a correction vector that contains second order information on the residues. We also propose three modifications to this method which aim to improve its efficiency. We made the theory of the method, obtaining two convergence theorems in addition to also performing numerical tests. The results look promising, significantly reducing the number of iterations in some cases.
Databáze: OpenAIRE