The paradigm of edge computing emerged in the last decade aiming to fill the gap between cloud data centres (accessible through multiple hops of networking) and the prosumers of information residing at the network edge. In edge computing, computing and storage resources are co-located with different kinds of infrastructures: with cellular infrastructures like base stations and aggregation sites; with core network components like ISP gateways; and with private infrastructures. Among the main goals of edge computing are the mitigation of network delay and the increase of bandwidth required by latency-sensitive and data-intensive applications hosted on mobile and Internet of Things (IoT) devices, including Autonomous Vehicles, Augmented/Virtual Reality, Mobile Multi-player Games, Natural Language Processing, Real-time Data Analytics, and Industry 4.0. The decentralised nature of the edge computing paradigm entails many challenges. First and foremost, the fine-grained distribution of edge nodes impose limitations to the capabilities offered by each node. Resources must be managed efficiently, and collaboration among surrogate nodes is paramount to enable more customers and services to be admitted into the system. Operational (Ops) aspects like the placement, deployment and scaling of edge-based services make automation and self-management properties first-class requirements. Last but not least, existing application and service models need to be adapted to cope with the characteristics of densely distributed infrastructure: heavyweight, monolithic applications may not fit into edge node resources or may fail to scale. In this thesis, we tackle the materialisation of edge computing from two main perspectives: architectural, in which we focus on the application and service models that enable the offloading of computation from latency-sensitive and data-intensive applications to edge nodes; and management, which handles the autonomic configuration, deployment, and scaling of services by geo distributed infrastructures. At the heart of our proposal is the paradigm of serverless computing and the Function-as-a-Service model. We leverage this alternative approach to cloud computing and propose a Serverless Architecture for Multi-Access Edge Computing. We then expand our contribution landscape with heterogeneous resources from mobile, edge, and cloud platforms, which we refer to as the Mobile-Edge-Cloud Continuum. To tackle the life-cycle of serverless functions deployed to the Continuum, we propose A3-E framework. A3-E moves away from centralised orchestration and management in favour of opportunistic, autonomic and decentralised provisioning of Function-as-a-Service to mobile applications with distinct requirements such as latency and battery consumption. We conclude our contributions with PAPS, a comprehensive framework that tackles the effective and efficient placement and scaling of serverless functions onto densely distributed edge nodes through multi-level self-management and control theory.

Il paradigma del edge computing è emerso nell'ultimo decennio al fine di colmare il divario tra i data center cloud (accessibile attraverso vari hop di networking) e i consumatori e produttori di informazioni che risiedono ai margini della rete. In edge computing, le risorse informatiche sono co-localizzate con diversi tipi di infrastrutture: stazioni di radio base e siti di aggregazione; con componenti della rete backbone come ISP gateways; e con infrastrutture di rete private. Tra gli obiettivi principali del edge computing vi sono la riduzione del ritardo di rete e l'aumento della larghezza di banda richiesta dalle applicazioni sensibili alla latenza e throughput ospitate su dispositivi mobili e IoT, compresi veicoli autonomi, realtà aumentata/virtuale, giochi multiplayer mobile, elaborazione del linguaggio naturale, analisi dei dati in tempo reale e Industry 4.0. La natura decentralizzata del paradigma del edge computing comporta molte sfide. Innanzitutto, la distribuzione a grana fine dei nodi edge impone limitazioni alle capacità offerte da ciascun nodo. Le risorse devono essere gestite in modo efficiente e la collaborazione tra i nodi più vicini è fondamentale per consentire a più clienti e più servizi di essere ammessi nel sistema. Aspetti operativi (Ops) come il posizionamento, il deployment e il ridimensionamento dei servizi edge rendono le proprietà di automazione e autogestione requisiti di prim'ordine. Infine, i modelli di cloud esistenti devono essere adattati per far fronte alle caratteristiche di un'infrastruttura densamente distribuita: le applicazioni pesanti e monolitiche potrebbero non adattarsi alle risorse dei nodi edge o potrebbero non riuscire a scalare. In questa tesi, affrontiamo la materializzazione del edge computing da due punti di vista principali: architettonico, in cui ci concentriamo sui modelli di applicazione e di servizio che consentono lo scarico del calcolo da applicazioni sensibili alla latenza e ad alta intensità di dati ai nodi edge; e gestione, che si occupa della configurazione, l'implementazione e il ridimensionamento autonomi dei servizi da parte di infrastrutture geo-distribuite. Il cuore della nostra proposta è il paradigma del serverless computing e del modello Function-as-a-Service. Sfruttiamo questo approccio alternativo al cloud computing e proponiamo un'architettura serverless per Multi-Access Edge Computing. Quindi espandiamo il nostro panorama di contributi con risorse eterogenee da piattaforme mobili, edge e cloud --- che chiamiamo Mobile-Edge-Cloud Continuum. Per affrontare il ciclo di vita delle funzioni serverless distribuite al Continuum, proponiamo un framework A3-E. A3-E si allontana dall'orchestrazione e dalla gestione centralizzata in favore di un provisioning opportunistico, autonomo e decentralizzato di Function-as-a-Service per le applicazioni mobili con requisiti distinti quali latenza e consumo della batteria. Concludiamo il nostro contributo con PAPS, un framework multi-livello che affronta il posizionamento e il ridimensionamento efficace ed efficiente delle funzioni serverless su nodi edge densamente distribuiti attraverso la teoria dell'autogestione e del controllo.

Self-management of geographically distributed infrastructures and services

FILGUEIRA MENDONÇA, DANILO

Abstract

The paradigm of edge computing emerged in the last decade aiming to fill the gap between cloud data centres (accessible through multiple hops of networking) and the prosumers of information residing at the network edge. In edge computing, computing and storage resources are co-located with different kinds of infrastructures: with cellular infrastructures like base stations and aggregation sites; with core network components like ISP gateways; and with private infrastructures. Among the main goals of edge computing are the mitigation of network delay and the increase of bandwidth required by latency-sensitive and data-intensive applications hosted on mobile and Internet of Things (IoT) devices, including Autonomous Vehicles, Augmented/Virtual Reality, Mobile Multi-player Games, Natural Language Processing, Real-time Data Analytics, and Industry 4.0. The decentralised nature of the edge computing paradigm entails many challenges. First and foremost, the fine-grained distribution of edge nodes impose limitations to the capabilities offered by each node. Resources must be managed efficiently, and collaboration among surrogate nodes is paramount to enable more customers and services to be admitted into the system. Operational (Ops) aspects like the placement, deployment and scaling of edge-based services make automation and self-management properties first-class requirements. Last but not least, existing application and service models need to be adapted to cope with the characteristics of densely distributed infrastructure: heavyweight, monolithic applications may not fit into edge node resources or may fail to scale. In this thesis, we tackle the materialisation of edge computing from two main perspectives: architectural, in which we focus on the application and service models that enable the offloading of computation from latency-sensitive and data-intensive applications to edge nodes; and management, which handles the autonomic configuration, deployment, and scaling of services by geo distributed infrastructures. At the heart of our proposal is the paradigm of serverless computing and the Function-as-a-Service model. We leverage this alternative approach to cloud computing and propose a Serverless Architecture for Multi-Access Edge Computing. We then expand our contribution landscape with heterogeneous resources from mobile, edge, and cloud platforms, which we refer to as the Mobile-Edge-Cloud Continuum. To tackle the life-cycle of serverless functions deployed to the Continuum, we propose A3-E framework. A3-E moves away from centralised orchestration and management in favour of opportunistic, autonomic and decentralised provisioning of Function-as-a-Service to mobile applications with distinct requirements such as latency and battery consumption. We conclude our contributions with PAPS, a comprehensive framework that tackles the effective and efficient placement and scaling of serverless functions onto densely distributed edge nodes through multi-level self-management and control theory.
PERNICI, BARBARA
MIRANDOLA, RAFFAELA
19-lug-2019
Il paradigma del edge computing è emerso nell'ultimo decennio al fine di colmare il divario tra i data center cloud (accessibile attraverso vari hop di networking) e i consumatori e produttori di informazioni che risiedono ai margini della rete. In edge computing, le risorse informatiche sono co-localizzate con diversi tipi di infrastrutture: stazioni di radio base e siti di aggregazione; con componenti della rete backbone come ISP gateways; e con infrastrutture di rete private. Tra gli obiettivi principali del edge computing vi sono la riduzione del ritardo di rete e l'aumento della larghezza di banda richiesta dalle applicazioni sensibili alla latenza e throughput ospitate su dispositivi mobili e IoT, compresi veicoli autonomi, realtà aumentata/virtuale, giochi multiplayer mobile, elaborazione del linguaggio naturale, analisi dei dati in tempo reale e Industry 4.0. La natura decentralizzata del paradigma del edge computing comporta molte sfide. Innanzitutto, la distribuzione a grana fine dei nodi edge impone limitazioni alle capacità offerte da ciascun nodo. Le risorse devono essere gestite in modo efficiente e la collaborazione tra i nodi più vicini è fondamentale per consentire a più clienti e più servizi di essere ammessi nel sistema. Aspetti operativi (Ops) come il posizionamento, il deployment e il ridimensionamento dei servizi edge rendono le proprietà di automazione e autogestione requisiti di prim'ordine. Infine, i modelli di cloud esistenti devono essere adattati per far fronte alle caratteristiche di un'infrastruttura densamente distribuita: le applicazioni pesanti e monolitiche potrebbero non adattarsi alle risorse dei nodi edge o potrebbero non riuscire a scalare. In questa tesi, affrontiamo la materializzazione del edge computing da due punti di vista principali: architettonico, in cui ci concentriamo sui modelli di applicazione e di servizio che consentono lo scarico del calcolo da applicazioni sensibili alla latenza e ad alta intensità di dati ai nodi edge; e gestione, che si occupa della configurazione, l'implementazione e il ridimensionamento autonomi dei servizi da parte di infrastrutture geo-distribuite. Il cuore della nostra proposta è il paradigma del serverless computing e del modello Function-as-a-Service. Sfruttiamo questo approccio alternativo al cloud computing e proponiamo un'architettura serverless per Multi-Access Edge Computing. Quindi espandiamo il nostro panorama di contributi con risorse eterogenee da piattaforme mobili, edge e cloud --- che chiamiamo Mobile-Edge-Cloud Continuum. Per affrontare il ciclo di vita delle funzioni serverless distribuite al Continuum, proponiamo un framework A3-E. A3-E si allontana dall'orchestrazione e dalla gestione centralizzata in favore di un provisioning opportunistico, autonomo e decentralizzato di Function-as-a-Service per le applicazioni mobili con requisiti distinti quali latenza e consumo della batteria. Concludiamo il nostro contributo con PAPS, un framework multi-livello che affronta il posizionamento e il ridimensionamento efficace ed efficiente delle funzioni serverless su nodi edge densamente distribuiti attraverso la teoria dell'autogestione e del controllo.
Tesi di dottorato
File allegati
File Dimensione Formato  
thesis.pdf

accessibile in internet per tutti

Descrizione: Thesis manuscript
Dimensione 5.38 MB
Formato Adobe PDF
5.38 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/148418