Big Data come motore della TIM Digital Transformation

Big Data come motore della TIM Digital Transformation
 

Big Data come motore della TIM Digital Transformation

La soluzione Big Data che TIM sta mettendo in campo è un pilastro fondamentale della strategia di trasformazione digitale di TIM. Le applicazioni del machine learning e, in generale, delle tecniche appartenenti all’ambito dell’artificial intelligence sono infatti abilitatori straordinari per la nuova strategia customer centric e per innovare l’interazione con i clienti migliorando esperienza di fruizione, qualità dei servizi e ricchezza informativa.

 

I nuovi scenari di business abilitati dai Big Data

L’analisi dei big data consente di esplorare scenari complessi e di trarne conclusioni rilevanti per il business. È un’innovazione  fondamentale per TIM, nel contesto di forte concorrenza di un mercato ormai libero che costringe l’azienda a misurarsi con un numero crescente di operatori, in un settore a margini ridotti. Il business vuole conoscere più a fondo il cliente perché vede in questa conoscenza la base per il mantenimento della posizione di mercato, potendo intervenire in modo proattivo e mirato. Le tecnologie big data adottate in TIM consentono una visione d’insieme sul comportamento dei clienti e di trarne poi, attraverso modelli di AA (Advanced Analytics), considerazioni che possono aiutare a migliorare la fidelizzazione e la proposizione commerciale. Per esempio profilare cluster di clienti sulla base dell’utilizzo dei servizi e della relazione con TIM, mettendo insieme i dati di traffico, gli acquisti effettuati, il caring su più canali.  Dall’analisi di tutti i touchpoint della customer journey si possono individuare i comportamenti e le abitudini dei clienti, con la possibilità, ad esempio, di creare campagne di marketing personalizzate e indirizzate a target specifici, o di organizzare in modo più efficiente l’assistenza alla clientela. Ne possono conseguire migliori risultati o minori sprechi di risorse e budget. In questo scenario, ogni dato nuovo non solo si aggiunge al patrimonio informativo già consolidato, ma moltiplica il suo valore combinandosi con i dati attuali. Un nuovo importante scenario di business si apre inoltre con la possibilità di analizzare le informazioni di sorgenti esterne quali social network e web, per estendere e approfondire la conoscenza della clientela, verificarne l’influenza su altri bacini di utenti e come il loro comportamento venga guidato da preferenze, scelte e interazioni con i servizi di terze parti.
L’albero del valore” di Figura 1, costruito dal Politecnico di Milano, evidenzia come in un progetto in ambito Big Data la parte di innovazione più tangibile è la creazione di nuovi servizi e la maggiore vicinanza al cliente con conseguente aumento dei ricavi, l’ottimizzazione delle attività esistenti con conseguente riduzione dei costi.

 

Figura 1 - L’Albero del valore di progetti Big Data

Architettura Logica

La nuova architettura ha come target la gestione efficace dell’ecosistema digitale di TIM attraverso l’ingestion e il trattamento dei dati digitali in modo differenziato sulla base della loro “temperatura”.
La “data temperature” è uno dei driver principali per il trattamento dell’informazione per mezzo di specifici enabler tecnologici progettati per garantire performance ma anche disaccoppiamento con i sistemi legacy.

 

Figura 2 - Data Temperature

Due sono le piattaforme sinergiche e interoperanti che permettono di trattare  i dati in base alla loro temperatura realizzando quella che in letteratura è nota come lambda architecture:

  • Service Delivery Platform (SDP): gestisce i dati HOT costruendo un “Integration Object Model” consultabile in real time e che raccoglie tutti gli update relativi a eventi di business alimentando un insieme di API informative a supporto di tutti i touch point e i canali di terze parti.
  • Big Data Platform (BDP): realizza un Enterprise Data Lake (EDL) dove convergeranno tutte le sorgenti informative aziendali (e non) di tipo COLD e WARM.  L’EDL gestirà la qualità e il ciclo di vita dei dataset di TIM e fornirà le risorse computazionali  e di front end per lo sviluppo di Use Case in modalità Data Driven.

Le data source aziendali sono trattate da entrambe le piattaforme con finalità di Analytics e AA oppure con finalità di exposure e di continuous fast query.

 

Figura 3 - Big Data Platform e Service Delivery Platform

I layer principali che costituiscono la BDP sono:

  • Infrastruttura: rappresenta sto-rage, networking e computer necessari ad abilitare le funzionalità dell’EDL;
  • IaaS Platform: favorisce e ottimizza la distribuzione dei workload e lo scale-out delle risorse computazionali e di storage.
  • Logical Analytical environments: si prevede un unico ambiente virtualizzato dove convergono tutte le soluzioni in production; il passaggio dallo sviluppo alla produzione è supportato mediante tecnologie di DevOps.
  • Analytics and Framework Engines: è costituito dalle componenti software che realizzano l’ecosistema dei servizi Big Data Hadoop, Massive Parallel Processing Layer over Hadoop, tool addizionali a supporto.
  • Visual Analytics and Actioning Layer: in questo layer si collocano tutti i tool di Front End usati dai clienti della piattaforma, alcuni tool di sviluppo di AA, strumenti di BI, reporting etc. Inoltre si prevede a questo livello un'esposizione/integrazione di insight verso sistemi di actioning TIM (a titolo di esempio il sistema di Campaign in Figura 4).
  • Governance Framework: è costituito dall’insieme dei tool necessari a garantire le policy di accesso, la sicurezza, i requisiti di privacy/compliance e la qualità dei dataset.
  • AA Developer Toolchain: rappresenta l’insieme dei tool, degli ambienti e degli accessi all’EDL utilizzati dagli addetti IT e dai clienti per realizzare o consumare il prodotto delle soluzioni di AA di TIM.
 

Figura 4 - Architettura Logica Big Data Platform

Nuove figure professionali: Data Scientist journey

La diffusione dei progetti di Big Data Analytics nelle aziende e la loro rilevanza strategica per il business sta favorendo l’ingresso dei Data Scientist, nuove figure professionali in grado di gestire e condurre analisi sui dati in modo da estrarre informazioni e valore a supporto del business.
Le competenze richieste ad un Data Scientist sono multidisciplinari e includono la conoscenza di tecnologie e linguaggi per l’acquisizione ed il trattamento di dati, algoritmi di machine learning, statistica, la conoscenza del mercato, del business e dei processi dell’azienda, tecnologie di data visualization, saper comunicare i risultati ai diversi stakeholder dei progetti.
La strategia vincente è quella di formare team multidisciplinari che coprano la maggior parte di queste competenze, favorendo il passaggio di know-how tra personale IT, analisti e esperti delle linee di business.

 

Figura 5 - Nuove figure professionali: Data Scientist journey

A titolo esemplificativo si riportano i passi che portano dall’idea alla messa in produzione di un algoritmo di Advanced Analytics:

  • si parte da un’idea o un bisogno iniziale, proposta dal project owner e dagli esperti di business,  si definiscono gli obiettivi minimi e la soluzione di massima. La figura del Business Analyst agisce come traduttore del problema di business in un progetto di advanced analytics end-to-end, e monitora nel tempo gli avanzamenti degli sviluppi delle varie parti che lo compongono;   
  • il data scientist esplora i dati esistenti accanto agli esperti di dominio delle linee e i Data Expert, per acquisire conoscenza sui dati e sui processi coinvolti, e può sperimentare in piccolo i diversi algoritmi che possono essere utilizzati per estrarre l’informazione richiesta o a risolvere il problema;
  • per permettere di scalare questi progetti, un fattore critico è la gestione dell’informazione acquisita e la conoscenza sui dati: è importante che il significato di business dei dati e del contesto sia condiviso, gestito e successivamente reso di dominio pubblico, per evitare di dover sprecare tempo nel cercare di risalire al significato delle informazioni presenti nei dati. Proprio per questo compito stiamo introducendo la figura del “Data Stewart”: un esperto dei dati e dei processi di uno specifico dominio che mantiene aggiornate le informazioni e le descrizioni dei dataset in un catalogo condiviso;
  • a questo punto il data scientist deve mettere assieme ed elaborare tutta l’informazione  contenuta nei dati e raccolta dagli esperti di business con l’aiuto delle moderne tecniche di data mining e machine learning, che consentono di scoprire in maniera automatica l’esistenza di schemi ricorrenti nei dati, dei pattern che possono essere generalizzati e trasformati in regole utili a supportare le decisioni di business. Questi modelli restituiscono un’informazione, la cui bontà e significatività deve essere sempre  validata per poter essere utilizzata per azioni di business;
  • quando il prototipo ha passato con successo le validazioni dei vari stakeholder coinvolti nel processo, è il momento in cui le ingegnerie integrano la soluzione all’interno dei processi di business esistenti;
  • una volta che un modello entra in produzione, è importante un coordinamento con il project owner per monitorarne le performance nel tempo, dimostrare la sua efficacia e valutare il ROI, e per raccogliere feedback utile ad affinarlo ulteriormente.
 

Conclusioni

Il passaggio ai big data impone una nuova modalità di lavoro, che influenza profondamente l’IT  e i rapporti con i dipartimenti di business.
Il volume e la velocità dei big data costringono a mettere a punto processi continui di raccolta, analisi, interpretazione dei dati e azioni conseguenti.
In questo contesto trovano ampio impiego i metodi di lavoro agili (come Scrum), attraverso i quali realizzare rapidamente piccoli deliverable incrementali, in un ciclo iterativo di sperimentazione-insight-convalida.
Appare chiaro che i big data non riguardano solo la tecnologia, ormai commoditizzata, ma cultura, consapevolezza e condivisione dei dati aziendali.  La sfida è nel passaggio da focus sulla quantità di dati ad uno sulla qualità e l’impiego delle giuste competenze per estrarre valore dai dati.

 

comments powered by Disqus