Deep Learning per le Telco

Deep Learning per le Telco
 

Deep Learning per le Telco

Da qualche anno la tecnologia del Machine Learning sta portando una vera e propria rivoluzione nel mondo dell’ICT con impatti sempre più importanti nella vita di tutti i giorni. I primi utilizzi di questa tecnologia risalgono ormai agli anni ‘50, ma recentemente, grazie ad una concomitanza di fattori sia tecnici che di contesto, i risultati che consentono di raggiungere sono davvero sorprendenti. TIM, anche grazie al contributo del JOL di Torino che costituisce un vero e proprio centro di eccellenza sul Machine Learning, sta iniziando a capitalizzare le enormi potenzialità di questa tecnologia sia in ambito Business che in ambito Operations.

 

Deep Learning: l’ultima frontiera dell’Intelligenza Artificiale

Intelligenza Artificiale è un termine coniato nel 1955 dal Prof. John McCarthy del Dartmouth College per indicare macchine in grado di emulare processi cognitivi tipicamente associati agli esseri umani. Il Machine Learning è lo strumento principale alla base delle moderne applicazioni di Intelligenza Artificiale e si può definire come la capacità di acquisire la conoscenza di un dominio mediante l’estrazione di informazioni significative da dei dati grezzi. Questa definizione fa immediatamente capire come alla base del machine learning ci siano i dati, dati che vengono elaborati mediante un processo di addestramento che ha l’obiettivo di far sì che il sistema svolga il compito che desideriamo.

 

Rete neurale biologica

Le reti neurali e la loro evoluzione

Il Deep Learning è una tecnica basata sull’uso di reti neurali artificiali e rappresenta l’ultima frontiera del Machine Learning. Le reti neurali possiedono a loro volta una lunga storia; risalgono agli anni ’50 del secolo scorso e sono dei modelli matematici che cercano di simulare, in modo ovviamente semplificato, il processo di elaborazione compiuto dal cervello. Si basano sul neurone artificiale, un elemento dal funzionamento semplice che esegue una somma pesata dei contributi che riceve da altri neuroni a cui è collegato e che emette a sua volta un segnale se il risultato della somma supera un certo valore.
Le reti neurali esistono da diversi decenni, periodo nel quale hanno avuto una storia piuttosto travagliata. Dopo un primo periodo di fervore, hanno subito una battuta d’arresto a causa di alcuni studi che ne prospettavano dei limiti teorici. Nonostante ciò, alcuni gruppi universitari hanno continuato a lavorare sulla teoria delle reti neurali e negli anni i limiti predentemente prospettati si sono rivelati superabili. Nel tempo si è passati da reti neurali con pochi neuroni a reti con molti più neuroni, normalmente aggregati in una struttura a più strati, da cui deriva il termine Deep Learning, nato per indicare una rete profonda, composta da molti strati.
Il successo del Deep Learning è però piuttosto recente e risale al 2012, anno in cui un approccio basato su una rete neurale profonda, proposto nella competizione ImageNet “Large Scale Visual Recognition Challenge”, ha segnato un miglioramento storico nella precisione dei sistemi di classificazione di immagini. Da quel momento il Deep Learning ha consentito un costante miglioramento in molti dei campi in cui è applicata l’Intelligenza Artificiale.

I Fattori abilitanti

Al di là dell’eco della competizione ImageNet, negli ultimi anni si sono verificate le condizioni necessarie per il successo del Deep Learing. Abbiamo visto che di norma un cervello artificiale più complesso riesce a essere più preciso e a svolgere compiti più sofisticati, ma questo obiettivo è raggiungibile solo se anche i dati usati per l’addestramento sono disponibili in larga quantità. Come sappiamo, grazie alle reti di telecomunicazione e alla diffusione sempre più capillare di computer, terminali e sensori, l’abbondanza di informazioni digitali è in continua crescita. Un altro fattore importante per la diffusione del Deep Learning è stata l’introduzione delle GPU come elemento di elaborazione. Reti neurali profonde addestrate su grandi moli di dati necessitano di complesse elaborazioni; grazie all’uso delle GPU, nate in origine per accelerare i giochi ma evolute a processori per calcoli generici, è possibile accelerare di molte volte i tempi di processamento delle reti, sfruttando l’architettura altamente parallelizzata dei processori grafici.

I campi di applicazione

Al giorno d’oggi, alla base di una nuova tecnologia introdotta sul mercato spesso c’è una rete neurale profonda. Le applicazioni sono le più variegate e la seguente lista può dare un’idea della diffusione del Deep Learning: sistemi automatici delle automobili a guida autonoma, riconoscimento della voce, traduzione automatica, chatbot, classificazione di immagini, navigazione robotica, diagnosi medicale, previsioni finanziarie. Non ultimi dal punto di vista dell’Intelligenza Artificiale, possiamo aggiungere i recenti successi nel campo dei giochi, tra i quali possiamo annoverare la recente sconfitta del campione del mondo di go da parte di AlphaGo di Google.

 

Il Machine Learning a supporto delle Operations di TIM

Il dominio delle telecomunicazioni è da sempre caratterizzato da enormi quantità di dati. La rete di accesso mobile di TIM genera da sola oltre 1 Mld di metriche ogni quarto d’ora, tutti i giorni i sistemi di tariffazione sono alimentati con svariati GB di cartellini di traffico, per non parlare delle impressionanti moli di eventi e syslog continuamente prodotti dagli apparati di rete. A oggi tuttavia i telco provider hanno sfruttato solo una piccola parte dell’informazione contenuta in questa immensa massa di dati. Le cause di questo sottoutilizzo sono varie; tra queste sicuramente la difficoltà nell’accedere a dati provenienti da diverse fonti informative in modo coerente causato dall’approccio a silos ancora largamente  diffuso nei sistemi informatici di molte telco e la mancanza di know-how specifico su questo tipo di tecnologie, know-how che al contrario fa ormai parte del DNA dei principali OTT come Google e Facebook.
Proprio per internalizzare queste competenze nel 2016 TIM ha attivato a Torino un JOL focalizzato sul Machine Learning e sul Deep Learning in particolare e dalla collaborazione tra questo e le strutture delle Operations stanno nascendo iniziative estremamente promettenti.

Anomaly detection sul traffico mobile

A partire da inizio 2017, in ambito SOC, si è iniziato a sfruttare il Machine Learning per emettere segnalazioni di alert in presenza di andamenti anomali sul traffico mobile rilevato sugli APN. Gli approcci tradizionali in molti casi non sono in grado di distinguere tra andamenti realmente anomali e scostamenti dalla normalità dovuti a situazioni particolari ma fisiologiche e generano quindi molti falsi allarmi. Per ovviare a questo problema è stato costruito un modello predittivo in grado di prevedere con grande precisione il traffico atteso su un dato APN in funzione non solo dello storico, ma anche di altre grandezze come il numero di sessioni e i tentativi di accesso (Figura 2).

 

Figura 2 - Struttura della rete WaveNet: a) calo inatteso del traffico dovuto a un effettivo problema. Sia l'algoritmo tradizionale che la soluzione basata su ML segnalano l'anomalia; b) scostamento del traffico dal suo andamento tipico. L'algoritmo tradizionale genera 2 false anomalie.

Il modello si basa su una rete neurale convoluzionale denominata WaveNet [nota 1] (Figura 3) inizialmente creata da DeepMind (società specializzata nel Deep Learning e controllata da Google) per la sintesi dei segnali audio e riprodotta con opportune customizzazioni dai  ricercatori del JOL per lo use case indirizzato. Caratteristica rilevante di questo modello (e del Machine Learning in generale) è la possibilità di migliorare le sue performance nel tempo se opportunamente alimentato con il feedback esplicito degli operatori sulle segnalazioni emesse.

 

Figura 3 - Overwiew of the residual block and the entire architecture

Analisi di allarmi e trouble ticket

Uno dei campi applicativi dove il ML (Machine Learning) ha avuto maggior successo è quello dell’analisi del testo in linguaggio naturale. Fino a qualche anno fa le tecniche con risultati migliori erano quelle che estraevano la semantica dei documenti a partire dalle statistiche delle parole contenute. Il così detto topic-modeling e il concetto di bag-of-words [nota 2]. Da qualche anno i modelli tradizionali di topic-modeling sono stati soppiantati da modelli di reti neurali con l’approccio word2vec. Il word2vec si fonda su un dogma del linguaggio naturale coniato dal linguista J. R. Firth nel 1957 “You shall know a word by the company it keeps”. In altre parole il significato di una parola si può “imparare” dalle parole che la circondano. Il word2vec fa proprio questo, è un modello di rete neurale che data una qualunque parola in un testo, è addestrato a predire le parole che la circondano (tipicamente 4/5 a destra e sinistra). Il grosso vantaggio del word2vec rispetto al topic-modeling tradizionale è la capacità di estrarre l’informazione semantica di testi brevi o semplici frasi, cosa non possibile per il topic-modeling che richiede documenti “corposi” per avere significato statistico.
Dove ci porta questa introduzione del word2vec? A due casi applicativi che ci riguardano da vicino nei quali tale tecnica sta dando risultati promettenti. Il primo è quello degli allarmi di apparati di rete. Ogni allarme contiene moltissimi campi che lo caratterizzano e uno di quelli col maggior contenuto informativo è il campo “summary”, ossia un log dell’apparato secondo il formato scelto dal vendor, che descrive il problema. Essendo un log, è una descrizione molto specialistica (gergale) ma pur sempre in linguaggio naturale come nell’esempio seguente:

NETACT SOFTWARE OPERATION FAILURE|Software operation "provision" has failed. Reason: No archive software in SWM repository.

Come sfruttare queste informazioni preziose in modo automatico? È stato addestrato un modello word2vec su questi log e il risultato consente di raggruppare tra loro (clustering) allarmi che si riferiscono allo stesso problema in modo più efficace di una classificazione basata sulla presenza di parole chiave. L’output del modello word2vec inoltre può a sua volta essere usato per addestrare altri modelli ML che a partire dalle trasformazioni word2vec predicono se un allarme richiederà l’apertura di un ticket (allarme importante).
L’approccio descritto si adatta ad altre tipologie di dati rilevanti per il mondo delle telco come ad esempio i trouble ticket dove le principali informazioni riguardo al problema e alle eventuali azioni che hanno portato alla risoluzione sono contenute in campi testuali ed espresse in linguaggio naturale.

Altri use case di interesse

Vari altri use case sono al momento in fase di esecuzione tra i quali:

  • Intelligent caring - Deployment di chatbot in grado di dialogare con i clienti di TIM, di comprenderne le esigenze e di fornirgli un primo livello di assistenza.
  • Incident management – Analisi delle segnalazioni provenienti dagli apparati di rete e identificazione degli effettivi problemi.
  • Fault prediction – Anticipazione di guasti su celle della rete mobile e sulle interfacce dei NAS.  

In generale il tema dell’anticipazione di problemi è poi fortemente legato alla tecnologia SON dove il Machine Learing comincia ad essere utilizzato come strumento per prevedere le situazioni dove è necessario compiere azioni automatiche di riconfigurazione per mantenere continuamente ottimizzata la qualità dei servizi offerti [Rif. articolo " DigiRAN: il valore dell’automazione nell’accesso radio" - Graziano Bini, Fabrizio Gatti, Paolo Goria, Michele Ludovico - Notiziario Tecnico n.1 2018 ].
Gli ambiti dove il Machine Learning può dare un valore aggiunto importante nel mondo telco sono però molteplici e man mano che la sensibilità verso le potenzialità e i requisiti di questa tecnologia si diffonderanno TIM potrà trarne sempre maggiore beneficio.

 

Conclusioni

Il ML sta avendo un impatto fortissimo in svariati campi dell’ICT. Qualunque forma di Machine Learning “impara” dai dati e quindi per capitalizzarne le potenzialità è necessario disporre di grandi quantità di dati di qualità e facilmente accessibili per analisi e sperimentazioni. Il Machine Learning infatti sfrutta informazioni nascoste all’interno dei dati e di conseguenza l’efficacia di una soluzione basata su questa tecnologia è valutabile solo a valle di sperimentazioni su dati reali.
Esistono svariati strumenti per lavorare con il Machine Learning sia commerciali che Open Source. Il vero fattore critico di successo è però il know-how dei data scientist. TIM ha nel JOL di Torino un centro di eccellenza su queste tecnologie, ma è importante che la sensibilità nell’uso delle stesse si diffonda ulteriormente in azienda.
Infine le esperienze portate avanti ad oggi hanno mostrato come condizione necessaria per indirizzare efficacemente uno use case sia il lavoro congiunto degli esperti di Machine Learning con le Operations, depositarie dell’expertise di dominio, e con le Ingegnerie, che devono poi assicurare il deployment della soluzione.

 

Note

  1. Oord, Aaron van den; Dieleman, Sander; Zen, Heiga; Simonyan, Karen; Vinyals, Oriol; Graves, Alex; Kalchbrenner, Nal; Senior, Andrew; Kavukcuoglu, Koray (2016-09-12). "WaveNet: A Generative Model for Raw Audio". 1609. arXiv:1609.03499.
  2. I modelli di riferimento sono Latent Semantic Analysis e Latent Dirichlet Allocation.
 

comments powered by Disqus