Smart planning: nuove tecnologie per l‘evoluzione della pianificazione degli investimenti

Smart planning: nuove tecnologie per l‘evoluzione della pianificazione degli investimenti
 

Smart planning: nuove tecnologie per l‘evoluzione della pianificazione degli investimenti

La rapidità di cambiamento del mondo dell’ICT - nelle tecnologie, nei servizi, e nelle abitudini dei clienti - è tale da rendere intrinsecamente superate modalità tradizionali di pianificazione, basate su dispiegamenti omogenei, segregazione e stratificazione delle tecnologie, progettazione basata solo sulle previsioni di traffico. Il susseguirsi incessante di fasi di investimento intensive impone l’adozione di tecnologie ad elevatissima flessibilità, come la virtualizzazione della rete, e di realizzare la pianificazione mediante nuove soluzioni automatizzate di lettura dei requisiti e della soddisfazione dei Clienti, quali i Big Data Analytics.

 

Il dilemma dei CAPEX

Nel 2001 William Beane, manager degli Oakland Athletics, squadra statunitense della Major League di Baseball (MLB), dovette affrontare il seguente problema: terminata la stagione con il mancato accesso ai playoff e l’abbondono dei giocatori di maggior prestigio, ricevette dalla proprietà il rifiuto allo stanziamento del budget necessario a rifondare la squadra. Decise quindi di assumere come assistente un giovane talent scout, Paul DePodesta, che aveva sviluppato un metodo di indicizzazione della qualità dei giocatori a partire da un numero elevato di statistiche di gioco. Applicando tale metodologia, individuarono un gruppo di giocatori di alto rendimento, ma con caratteristiche tali da non essere normalmente considerati dagli osservatori. La squadra incontrò inizialmente numerose difficoltà, tuttavia crebbe nel corso dell’anno grazie alla tenacia di Beane nel difendere l’approccio adottato, fino a stabilire il record di 20 vittorie consecutive, tuttora imbattuto nella MLB. L’esperimento di Beane, raccontato in un libro [1] e in un film [2], ha rappresentato l’inizio dell’uso massivo di statistiche nello sport per individuare la migliore composizione di una squadra, sostituendo in parte i metodi tradizionali di osservazione e selezione.
Oggi il mondo delle Telco affronta probabilmente un problema analogo. Il livello di investimento delle Telco è elevato sia in termini assoluti che relativi, quindi sicuramente non si può parlare di riluttanza allo stanziamento dei budget. Tuttavia, la forte competizione sui servizi e sulle tecnologie, la continua crescita del traffico dati a fronte di ARPU tipicamente in contrazione, la necessità e l’opportunità di sondare nuovi mercati e servizi, e l’importanza determinante della soddisfazione dei clienti in tutte le fasi di vita del servizio, fanno sì che si debbano affrontare processi complessi di definizione e allocazione delle risorse disponibili. Nel 2017 TIM ha investito in CAPEX a livello domestico circa 4 Miliardi di Euro, definendo un rapporto CAPEX su fatturato domestico di circa il 25% [3]. Sebbene si preveda una normalizzazione nel prossimo triennio verso valori equivalenti alla media globale Telco, circa il 15-20 % [4, 5], grazie al completamento della fase di espansione della copertura NGAN (Next Generation Access Network), l’analisi degli investimenti delle Telco a livello globale [6] mostra come tali investimenti siano ancora costantemente elevati e tendenzialmente in crescita da diverse decadi, in particolare a causa del dispiegamento intensivo di infrastrutture volto a rendere disponibili nuove tecnologie e servizi secondo cicli di innovazione e trasformazione frequenti e, perdipiù, in accelerazione.
Un esempio è rappresentato dal Mobile [7] [nota 1]. La prima tecnologia a standard globale è il GSM (1995), cui fanno seguito l’introduzione del GPRS e dell’EDGE, rispettivamente nel 2001 e nel 2004, per supportare i primi servizi dati. Nel 2004 TIM lancia l’UMTS e nel 2007 l’HSDPA, che attraversa ripetute fasi di evoluzione, fino a raggiungere nel 2012 la velocità di download di 42 Mb/s. Il 2012 è anche l’anno di lancio del 4G, che già nel 2014 evolve nel 4Gplus prima, e successivamente nel 4.5G [nota 2], offerto commercialmente a partire dal 2016, consentendo una prestazione di picco fino a 700 Mb/s. Per ogni generazione mobile i livelli di copertura sono di tipo nation-wide: ad esempio, il 4G è dispiegato in oltre 7300 comuni con una copertura della popolazione del 98%, il 4Gplus in oltre 1400 comuni. I piani di investimento prevedono un’estensione ulteriore delle coperture 4G, fino a raggiungere i livelli pervasivi del GSM, oltre ad incrementare il footprint 4Gplus e 4.5G. La corsa non è però terminata. Da quest’anno sono in corso i primi trial on field della nuova tecnologia 5G, il cui lancio è previsto nel 2019-2020, che si propone di rendere disponibili non solo velocità di trasmissione maggiori, ma anche miglioramenti in termini di latenza e affidabilità, abilitando servizi del tutto nuovi rispetto a quelli tradizionali e richiedendo una trasformazione di portata più ampia, con l’apertura a nuovi mercati e modelli di business, e quindi nuovi stream di investimento. In Figura 1 sono riportati i CAPEX a livello globale relativi al 4G ed i corrispondenti livelli di copertura media, e le corrispondenti previsioni per il 5G, dove si può osservare come tra il 2018 e il 2020, gli operatori mobili investiranno 500 miliardi di dollari, al netto dei costi di acquisizione dei diritti d’uso dello spettro, in modo concentrato per quanto riguarda i mercati più avanzati sulle evoluzioni del 4G e sui primi dispiegamenti 5G [8].

 

Figura 1 - CAPEX e copertura Mobile 4G e 5G globali (fonte: GSMA Intelligence [8])

Questa breve carrellata porta ad individuare almeno tre elementi di complessità nel processo di pianificazione. Il primo è l’accelerazione nei tempi di arrivo delle nuove tecnologie. L’analisi storica degli anni di lancio porta ad individuare sia una riduzione dei tempi tra le diverse Generazioni, scesa da 9 a 7 anni, sia il rapido evolvere delle tecnologie intermedie (ormai una ogni due anni). Quest’ultime, inoltre, si diversificano anche per caratteristiche: il 4G evolve verso il 5G sia in termini di performance di picco con il 4Gplus e il 4.5G, sia in termini di nuovi servizi con le tecnologie NB-IoT (Narrow Band-Internet of Things) ed FWA (Fixed Wireless Access). Questa velocità di rinnovamento, unita alla frammentazione del mercato dei device, rende complesso il decommissioning dei layer legacy, portando ad una stratificazione e ad una complessità gestionale elevate. Di fatto, nemmeno il 2G può essere considerato obsoleto, per via del numero elevato di dispositivi M2M GSM diffusi nel mercato. Il secondo elemento è la complessità di gestione dello spettro. Grazie al continuo rinnovamento dei device la clientela tende a spostarsi automaticamente verso le tecnologie di ultima generazione, tuttavia la quota residuale di terminali di vecchia generazione, oltretutto con caratteristiche di trasmissione a basso bit rate come i device M2M, unita alla ridotta scalabilità nell’utilizzo dello spettro delle tecnologie 2G e 3G, fanno sì che vi siano porzioni di spettro che non possono essere sottoposte a refarming e che sono utilizzate in modo inefficiente. Il terzo elemento, infine, è la realizzazione di dispiegamenti omogenei sia in estensione (copertura nazionale) sia in profondità (indoor coverage), andando a fornire uniformità non solo di accessibilità ma anche di peak performance, dove solo recentemente si è seguito un approccio diverso, utilizzando il 4G per offrire un layer nazionale a 20MHz, e rendendo invece il 4.5G disponibile in modo più puntuale in aree di specifico interesse.

 

Figura 2 - Intervalli di tempo tra Generazioni del mobile e tra step intermedi di evoluzione

Tutto questo riguarda l’accesso mobile. Se si aggiungono le wave di dispiegamento dell’accesso fisso, l’evoluzione delle reti e dei sistemi di gestione verso i paradigmi Cloud e NaaS (Network as a Service), l’evoluzione digitale dei sistemi BSS e delle piattaforme di Servizio, il quadro risultante per un Operatore infrastrutturato, qualunque sia il footprint e la visione di business, è confrontabile a quello di un manager sportivo che deve rinnovare ogni anno la propria squadra, mantenendola ad un livello competitivo, ma secondo vincoli di budget e di composizione molto stringenti. Per fare questo occorrono sicuramente visione strategica, programmazione, coerenza e tempismo nell’attuazione. Ma sono necessari anche strumenti che le nuove tecnologie offrono e che consentono di passare ad una visione evoluta della pianificazione.

 

Tecnologie abilitanti lo smart planning

Due abilitatori essenziali di una pianificazione evoluta sono le tecnologie della virtualizzazione e quella dei Big Data Analytics [4, 9]. La virtualizzazione della rete fornisce tutta la flessibilità necessaria a dirigere le risorse dove e quando necessario, senza i vincoli derivanti dal dispiegamento di piattaforme verticali per servizio. Gli analytics, applicati a diversi ambiti di indagine, consentono invece previsioni per azioni preventive a livello sia di servizio, sia di rete.

Virtualizzazione

Una rete virtualizzata e programmabile fornisce idealmente la flessibilità richiesta dai nuovi scenari di business. In uno scenario di trasformazione digitale del mercato e dei servizi, è infatti necessario poter lanciare agilmente nuovi servizi, sviluppando quelli di successo e dismettendo quelli di minore interesse, e gestire le fluttuazioni di traffico nello spazio e nel tempo senza dover dispiegare una sovra-capacità di rete, effettuando lo scale-in e lo scale-out delle funzioni di rete virtualizzate secondo i requisiti di servizi a parità di risorse hardware e software. La disponibilità di una rete realmente programmabile ed automatizzata secondo i requisiti di un Operatore Telco (ovvero aperta, affidabile, ad elevata capacità, con funzioni di gestione evolute, ecc.) rappresenta di per sé uno strumento di smart planning, consentendo saving a tutti i livelli: dimensionale, di complessità di rete, energetico, di maintenance e di servizi professionali.
Un esempio è rappresentato dalla virtualizzazione della RAN (vRAN – virtual Radio Access Network). La virtualizzazione e la centralizzazione del controllo radio di cluster di nodi di accesso, possibilmente multi-tecnologia, permette un dimensionamento più efficiente, sia grazie alla migliore multiplazione delle risorse disponibili, sia per la possibilità di distribuire agilmente le risorse di rete dove necessario, seguendo i flussi di traffico nello spazio e nel tempo. Normalmente questi obiettivi sono perseguiti attraverso il dispiegamento di risorse statiche e quindi, data la mobilità dei clienti, attraverso un sovradimensionamento. La possibilità di distribuire le risorse dinamicamente dove necessario permette, al contrario, di dispiegare capacità e performance addizionali solo in corrispondenza di una effettiva crescita del traffico. Vi sono inoltre altri potenziali saving, in funzione della soluzione adottata, ad esempio nella disponibilità immediata di funzionalità evolute per l’incremento delle capacità e delle prestazioni, evitando complessi coordinamenti inter-sito, oppure nel consumo energetico nel sito remoto. Un ulteriore forma di dinamicità, attualmente disponibile per lo più solo allo stato prototipale, è quella relativa all’uso contemporaneo di diverse tecnologie radio sullo stesso layer frequenziale, secondo soluzioni non segregate né a radiofrequenza, né in banda base. È ragionevole attendersi che nel futuro lo spettro sia concentrato sulle tecnologie 4G e 5G, che cooperano per un uso ottimale dei servizi, a fronte di una notevole frammentazione delle caratteristiche dei device. Inoltre vi saranno ancora per diversi anni (almeno fino a metà della prossima decade) quote residuali di terminali legacy che sviluppano volumi limitati di traffico, in particolare quelli M2M o solo voce. Diviene dunque essenziale poter servire tali terminali senza dover svolgere attività complesse ed onerose di refarming e segregazione delle risorse, quest’ultime tipicamente inefficienti per i limiti di scalabilità delle tecnologie legacy. Al contrario, forme di sharing dinamico dello spettro assegnato ad un operatore su differenti tecnologie consentirebbe una pianificazione flessibile, orientata a servire al meglio le tecnologie più recenti e più demanding in termini di risorse, senza dover rinunciare a quote di clientela legata alle tecnologie precedenti.

 

Figura 3 - Rete di accesso mobile target secondo i criteri di efficienza e flessibilità

Advanced Analytics e Machine Learning

Così come l’obiettivo di ogni team della MLB è vincere il play-off, uno dei fattori critici di successo per le TELCO è quello di sapere esattamente dove investire nella rete e nei servizi da essa erogati. Per rispondere a questa domanda si possono adottare nuove strategie e tecniche di analisi che si sono consolidate negli ultimi anni grazie alla possibilità di elaborare a basso costo complessi modelli matematico-statistici applicandoli a enormi volumi di dati. L’innovazione tecnologica ha infatti consolidato la sinergia tra Big Data e Artificial Intelligence (AI) facendo nascere un filone che possiamo definire di “Advanced Analytics” (AA), in grado non solo di automatizzare alcune mansioni tradizionalmente svolte in modo manuale da un analista, ma addirittura di realizzare tecniche di inferenza statistica e di elaborazione cognitiva assimilabili a quelle svolte dal ragionamento umano. In questo senso Il “Machine Learning” (ML), che rappresenta un sottoinsieme specifico dei modelli e delle tecniche di AI, consente di costruire reti neurali multi-livello in grado di apprendere e classificare automaticamente i segnali in ingresso, consentendo quindi di identificare comportamenti non rilevabili con le tecniche classiche di analisi descrittiva.
In definitiva, gli AA consentono di sviluppare algoritmi che apprendono automaticamente dai dati, predicono evoluzioni future, riconoscono e classificano segnali deboli e pattern caratteristici di comportamento e permettono quindi decisioni più efficaci in quanto basate su un insieme di dati storici ampio, dinamico e a largo spettro. In questo senso è evidente come l’adozione degli AA possa avere impatti significativi sulla pianificazione della rete così come in molti altri ambiti di business degli operatori (qualità della rete, design dei servizi, caring del cliente, etc..).
Tuttavia, la sfida nell’adozione degli AA non è esclusivamente di natura tecnologica ma si impernia anche sulla reale capacità di implementare e applicare in azienda un nuovo approccio organizzativo e sistemico all’analisi dei dati. Si tratta infatti di diffondere una cultura Agile e Data Driven che consenta di applicare queste tecniche su tutto il bacino dei dati aziendali in modo efficace, qualitativo, riusabile, sicuro e conforme alla normativa di gestione privacy.
Con questo obiettivo TIM ha avviato nel 2017 e sta attualmente finalizzando un programma di Trasformazione Digitale e Organizzativa rivolto a potenziare il suo dipartimento di Information Technology costruendo rispettivamente un Enterprise Data Lake (EDL) e un Centro di Eccellenza (CoE) sugli AA.
L’EDL è una piattaforma abilitante che applica le tecnologie del cloud e dei microservices ai dati e agli strumenti di analisi in modo da rendere pervasivo, scalabile ed economico l’utilizzo degli Advanced Analytics. Il CoE ha l’obiettivo di sviluppare un nucleo multidisciplinare costituito da risorse interne e giovani talenti specializzati in Data Science impegnandoli nella messa a punto di modelli statistici e di AI/ML utilizzando linguaggi aperti e strumenti Big Data, facendo crescere e consolidando una squadra di eccellenze che sviluppino i prodotti “Data Driven” da applicare al mercato.
Attraverso questi progetti TIM sta investendo in modo concreto e intende rendere pervasiva e diffusa in tutto il gruppo l’adozione delle tecniche di AA applicandole in modo orizzontale a tutti i settori di business, come illustrato in Figura 4.

 

Figura 4 - Telco Advanced Analytics Use Case MAP

Anche i modelli di pianificazione di rete includeranno quindi le potenzialità dell’EDL dove, insieme alle classiche informazioni quali la topologia di rete, la capacità, la competitività e l’obsolescenza delle tecnologie, saranno presenti anche informazioni di “Customer Journey and Behavior” come, ad esempio, la ricchezza e qualità dei sevizi erogati, il profilo e la propensione alla spesa, le aspettative di servizio future, il profilo e le caratteristiche sociali delle comunità sparse sul territorio. In aggiunta si potrà applicare un concetto di “Revenue Driven Investment”, utilizzando informazioni commerciali e di contesto come la competitività delle offerte TIM rispetto a quelle degli altri operatori, la consistenza dei clienti, la consistenza dei link effettivamente attivati sugli elementi di commutazione e permutazione di rete, i vincoli normativi e di settore in essere sul territorio.
Da queste premesse si potranno mirare in modo più efficace gli investimenti creando nuove opportunità per i clienti e programmando il dispiegamento di infrastrutture e offerte di servizio più qualitative, pervasive e personalizzate sul cliente e sul territorio.

 

Conclusioni

La pianificazione di rete evolve per poter affrontare la sfida dello sviluppo verso il modello Digital Telco. La ricchezza di nuove tecnologie disponibili e lo sviluppo dei nuovi servizi digitali secondo cicli di vita agili rendono impensabili modalità di pianificazione tradizionali basate su dispiegamenti dedicati e pervasivi di ogni specifica soluzione. La rilevanza sempre maggiore della soddisfazione del cliente in ogni fase del servizio ed in uno scenario di mercato sempre più competitivo spinge a ripensare la pianificazione, utilizzando sia tecnologie che aumentano drasticamente la flessibilità di rete sia tecnologie che permettono di leggere meglio le aspettative ed i comportamenti dei clienti. La virtualizzazione, basata su soluzioni che rendono effettivamente la rete una piattaforma programmabile, dove le diverse funzioni ed i molteplici servizi sono attivati e scalati secondo i requisiti di qualità e traffico senza dover ricorrere and un over-building di rete, rappresenta a tendere un requisito per potere disporre della flessibilità necessaria ad affrontare le sfide crescenti del mercato in modo sostenibile. Gli Advanced Analytics, derivati dalla convergenza dei Big Data e della Artificial Intelligence, hanno un potenziale rilevante grazie alla capacità di interpretare un numero elevato di caratteristiche e comportamenti dei clienti, consentendo di indirizzare gli investimenti secondo criteri Revenue Driven molto puntuali. Le sorgenti dei dati possono essere sia esterne ma anche interne alla rete, sfruttando l’enorme mole di dati raccolta dalle diverse piattaforme. Tali indicazioni andranno ad integrarsi ad approcci di pianificazione evoluta già oggi in atto, andando a sviluppare un framework olistico allo smart planning.

 

Note

  1. Come riferimento temporale si considerano le date di lancio da parte di TIM
  2. 4Gplus e 4.5G sono i nomi commerciali associati a versioni successive della tecnologia LTE-Advanced (LTE-A)

 

 

Bibliografia

  1. Michael Lewis - Moneyball: The Art of Winning an Unfair Game -W. W. Norton&Company, 2003
  2. https://it.wikipedia.org/wiki/L%27arte_di_vincere
  3. FY’17 and 2018-2020 Plan – TIM Group, March 2018, http://www.telecomitalia.com/tit/it/investors/presentations/2018/FY2017-group-results-plan-update.html
  4. McKinsey&Company - A future for mobile operators – The keys to successful reinvention, 2017
  5. PWC - Building big-data capabilities to optimize capital and operating expenses, 2015
  6. PWC - We need to talk about Capex - Benchmarking best practice in telecom capital allocation, 2012
  7. http://www.telecomitalia.com/tit/it/about-us/history/10s-20s.html
  8. https://www.gsmaintelligence.com/research/2018/02/the-mobile-economy-2018/660/
  9. McKinsey&Company - The end of bad decisions - Advanced analytics and transformational leadership. A way forward for network operators, 2016
 

comments powered by Disqus