MLFV: a network-aware approach for machine learning function chain orquestration

Autor: Souza, Renan Lirio de
Přispěvatelé: Machado, Alencar, Rizzetti, Tiago Antonio, Villaca, Rodolfo da Silva
Jazyk: portugalština
Rok vydání: 2019
Předmět:
Zdroj: Biblioteca Digital de Teses e Dissertações do UFSM
Universidade Federal de Santa Maria (UFSM)
instacron:UFSM
Popis: Machine Learning as a Service (MLaaS) platforms are allowing the application of Machine Learning (ML) techniques from anywhere, and at any time. These platforms, in general, are hosted in the cloud and have a scalable infrastructure with high processing power; however, they have some disadvantages, such as the need to send data to the cloud. ML on the Edge (Edge Computing) is emerging as an option to tackle some limitations imposed by these platforms, reducing the latency and bandwidth usage; furthermore, it avoids data privacy and security issues by keeping the data on the local network. However, the application of ML on the edge still presents research challenges, such as the orchestration of ML functions considering the network state and the computational capabilities of the nodes. In this sense, network-aware orchestration services, provided by Network Function Virtualization (NFV) platforms can be a promising approach to manage the ML tasks placement. This work proposes the MLFV (Machine Learning Function Virtualization), a network-aware approach that explores the NFV environment to orchestrate the execution of ML function chains; these chains represent the execution flow of the ML functions that can be grouped as sequential and/or parallel activities. The MLFV implements a model for placing chains of ML, considering constraints on CPU, memory, required libraries and the network overload aiming to reduce the overall execution time of all functions in a chain. This model distributes the functions in order to reduce the network overload, the execution time, especially in cases where the network presents some instability. To evaluate the MLFV proposal a case study in the geotechnical area was conducted, using soil data to reproduce the soil classification process through two ML function chains; these chains, implemented by MLFV, were created based on the Knowledge Discovery in Databases process (KDD). The results showed that MLFV achieved, on average, a 25% reduction in the execution time compared to cloud (MLaaS) and edge approaches in a stable network connection scenario. When some computational nodes had bandwidth constraints, MLFV was able to identify these limitations, allocating the ML tasks on hosts with stable connections. The other approaches were unable to detect these instabilities, resulting in a 400% increase in the overall chain execution time. As plataformas de Aprendizado de Máquina como Serviço (MLaaS) vem possibilitando a aplicação de técnicas de Aprendizado de Máquina (ML) de qualquer lugar e a qualquer momento. Essas plataformas, em geral, são hospedadas na nuvem e possuem infraestruturas escaláveis com um alto poder de processamento; no entanto, apresentam algumas desvantagens como a necessidade de realizar a transferência dos dados para a nuvem. A aplicação de ML na borda da rede (Edge Computing) está surgindo como uma opção para reduzir algumas das limitações impostas por essas plataformas, diminuindo, por exemplo, a latência e o uso da rede; além disso, evita problemas com relação a privacidade e segurança dos dados por mantê-los na rede interna. No entanto, a aplicação de ML na borda ainda apresenta desafios de pesquisa, como, por exemplo, a orquestração de funções de ML levando em consideração o atual estado da rede e as capacidades computacionais dos nodos. Neste sentido, serviços de orquestração de funções conscientes do estado da rede, como os fornecidos por plataformas de Virtualização de Funções de Rede (NFV), podem ser uma abordagem promissora para gerenciar a distribuição das tarefas de ML. Este trabalho propõe o MLFV (Machine Learning Function Virtualization), uma abordagem consciente do estado da rede que explora um ambiente de NFV para orquestrar a execução de cadeias de funções de ML; essas cadeias representam o fluxo de execução das funções, podendo ser agrupadas de forma sequencial e/ou paralela. A abordagem de MLFV implementa um modelo matemático para colocação de cadeias de ML que, considerando restrições de CPU, memória, bibliotecas necessárias e sobrecarga de rede, objetiva reduzir o tempo total de execução de todas as funções de uma cadeia. O modelo distribui as funções de forma a reduzir a sobrecarga na rede, o que acarreta na redução no tempo total de execução, principalmente em casos em que a rede apresenta instabilidade. Para avaliar a abordagem de MLFV foi realizado um estudo de caso na área de geotecnia, utilizando dados de sensores para reproduzir o processo de classificação de solos através de duas cadeias de funções de ML; essas cadeias, implementadas pelo MLFV, foram criadas com base no processo de Descoberta de Conhecimento em Base de Dados (KDD). Os experimentos demonstraram que o MLFV obteve, em média, uma redução no tempo de execução de 25% em comparação às abordagens de ML na nuvem (MLaaS) e na borda (Edge) em um cenário com conexão de rede estável. Em um cenário onde os nodos computacionais apresentavam restrições de largura de banda, o MLFV foi capaz de identificar essas limitações, alocando as tarefas de ML nos hosts com conexão estável. As outras abordagens não foram capazes de detectar essas instabilidades, acarretando em um aumento de 400% no tempo de execução das cadeias de funções.
Databáze: OpenAIRE