Fabrizio Antonelli, Luigi Artusio, Corrado Moiso

Il valore dei Big Data nella Data-driven Society

Il valore dei Big Data nella Data-driven Society

Nel futuro prossimo, secondo alcuni entro il 2020 [1], tutto sarà connesso in rete: persone, cose, macchine e processi operativi contribuiranno quotidianamente a realizzare un canale permanente tra il mondo reale e le dimensioni virtuali abilitate da Internet.
La quantità di dati generati da queste connessioni sarà enorme, "Big Data" appunto, e la loro analisi e sfruttamento consentiranno la nascita di una nuova società e di una nuova economia fondate sul valore dei dati digitali, la "Data-driven Society". Vediamo come.

 

1 - Introduzione

Secondo recenti studi [2] la convergenza fra il sistema industriale globale, le avanzate capacità elaborative dell’ICT, il decrescente costo dei sensori e l’ubiquità delle reti di comunicazione renderà possibile la nascita e lo sviluppo della terza onda di innovazione negli ultimi 200 anni, la cosiddetta "Industrial Internet", preceduta dalla "Internet Revolution" e dalla "Industrial Revolution". La profonda integrazione fra il mondo digitale e quello delle macchine implicherà una forte trasformazione sia del settore industriale sia della nostra vita quotidiana.
La "Data-driven Society" sarà caratterizzata da un significativo aumento della produttività: ad esempio, General Electric stima che negli Stati Uniti la sola Industrial Internet potrebbe incrementare la produttività di oltre 1 punto percentuale all’anno [2].
L’attuale innovazione tecnologica rende questo scenario concreto ed economicamente perseguibile. Il primo elemento abilitante è l’accesso pervasivo alla rete Internet, garantito dalle reti broadband fissa e mobile. Il secondo elemento è costituito dalla possibilità di generare, a basso costo ed in modo più o meno conscio, grandi quantità di dati digitali tramite sensori, weareable personal computer, smartphone, tablet, ... Inoltre, l’IT (Information Technology) ha fatto enormi progressi in termini di capacità di memorizzazione ed elaborazione di grandi masse di dati, grazie all’evoluzione del cloud computing e degli strumenti di analisi dei dati. A tutti questi ingredienti va aggiunta la propensione umana alla generazione di dati digitali ed alla loro condivisione tramite gli strumenti offerti dal mondo globale dei social networks.
Tuttavia, il processo di trasformazione delle imprese e del relativo business richiede necessariamente tempo ed investimenti. Recenti analisi internazionali hanno evidenziato luci ed ombre, come è naturale che avvenga in situazioni di cambiamento dirompente. Ad esempio, secondo un’indagine condotta su un campione di oltre 600 società solo il 12% dei dati in loro possesso veniva utilizzato a fine 2012 [4]. Nel medesimo periodo una nota società di consulenza indiana ha realizzato un sondaggio internazionale, che ha evidenziato che il 53% del campione analizzato nel 2012 aveva in corso progetti di sfruttamento e valorizzazione dei dati disponibili in azienda [5]. Uno studio recente dal Politecnico di Milano [6] illustra uno scenario italiano positivo, sebbene ancora in stato di sviluppo iniziale: il 67% dei CIO italiani intervistati credono nell’innovazione derivante dall’utilizzo dei Big Data.
Un aspetto fondamentale nel processo di trasformazione verso la "Data-driven Society" è l’utilizzo etico dei Big Data che, essendo molto spesso riferiti a persone, devono essere raccolti, memorizzati, difesi ed utilizzati nel rispetto dei principi e delle regole stabilite dalle direttive nazionali ed internazionali relative alla protezione dei dati personali.
I nuovi usi dei Big Data, dei relativi modelli di business e degli scenari competitivi richiedono che chi opera sul mercato, i governi e le istituzioni siano tutti consapevoli delle opportunità e anche delle minacce derivanti dallo sviluppo del nuovo ecosistema digitale e che, conseguentemente, vengano ridefinite le politiche industriali ed il sistema delle regole in modo coerente con il nuovo contesto.

 

2 - Dalla scienza al business

Fino a pochi anni fa i Big Data potevano essere analizzati e sfruttati principalmente per la ricerca scientifica (astronomia, geofisica, genomica, …) o per finalità militari. Tuttavia, gli enormi progressi compiuti dall’IT nell’ultimo decennio hanno consentito di abbassare i costi di memorizzazione e di elaborazione dei Big Data, aprendo nuove opportunità per le aziende e per le amministrazioni pubbliche.
Le prime puntano primariamente ad accrescere la produttività e ad aumentare i margini operativi sfruttando, oltre i tradizionali dati strutturati, anche i nuovi dati non strutturati o semi-strutturati provenienti dai blog dai social media o da strumenti di comunicazione (testi, immagini, video, audio, likes, e-mail,…); a questi si aggiungono i dati generati dalle macchine e dai sensori che già oggi sono in grado di comunicare dati. Un’inchiesta di Capgemini ha recentemente evidenziato che le aziende che hanno sfruttato i Big Data nei propri processi hanno ottenuto un miglioramento medio del 26% delle prestazioni, rispetto ai tre anni precedenti e prevedono un ulteriore miglioramento del 41% nei prossimi 3 [7].
Anche le pubbliche amministrazioni si attendono risultati significativi dall’utilizzo sistematico dei Big Data, soprattutto nei settori delle finanze e della sanità pubblica. Infatti, l’analisi dei Big Data potrebbe consentire di ridurre l’evasione fiscale ed il passaggio da un sistema sanitario che interviene per curare, ad uno che prevede e previene le malattie. Si stima che i Big Data potranno far risparmiare al sistema sanitario americano 300 miliardi di dollari all’anno ed al settore pubblico europeo 250 miliardi di euro [8].
Un modo pragmatico per misurare lo stato di adozione dei Big Data nel business può essere quello di quantificare gli investimenti delle aziende; un’indagine condotta da Tata Consulting Services ha rivelato che sul campione delle società investigate la mediana di spesa nel 2012 è stata di 10 milioni di dollari, pari a circa lo 0,14 della mediana dei loro ricavi [5]. In Italia, secondo il Politecnico di Milano, gli investimenti su sistemi e soluzioni per l’analisi dei dati risulta in forte crescita nel 2013 (+22% YoY), a fronte di un mercato ICT in flessione di circa il 4% [6].
Per entrare nel mondo dei Big Data, le imprese, oltre agli investimenti per le tecnologie abilitanti, devono fare fronte ad alcune sfide non trascurabili. La prima, di tipo organizzativo e culturale, consiste nel convincere le business unit a condividere le informazioni oggi rigidamente organizzate secondo un modello verticale e chiuso. La seconda è di tipo semantico, ossia acquisire la capacità di selezionare i dati giusti in funzione del problema di business che si intende risolvere. Infine, ultima, ma non meno importante, è la necessità di sviluppare le competenze specialistiche in grado di valorizzare al meglio il patrimonio dei dati aziendali, i "data scientist", dei quali già oggi si prevede la carenza entro breve tempo [9].
Entrando, invece, nel tema delle opportunità di business, vi sono esempi concreti di aziende che utilizzano i Big Data [10] oltre naturalmente ai noti casi, che non tratteremo nel seguito, delle aziende del Web (Google, Amazon, Facebook, Twitter, …) che hanno basato il loro modello di business proprio sui Big Data.
Un primo ambito di applicazione dei Big Data è relativo alle aree del marketing e delle vendite, ove i principali obiettivi strategici sono orientati al miglioramento della relazione con il cliente alla crescita della reputazione aziendale ed al perfezionamento delle pratiche di customer intelligence. Un esempio di rilievo in questo ambito è rappresentato dalla americana Walmart [11], pioniere nell’applicazione di tecnologie per il trattamento dei Big Data, finalizzato al miglioramento delle vendite di prodotti di consumo. Walmart ha sviluppato nei propri laboratori alcune applicazioni, quale Shoppycat, che analizza i gusti ed i desideri degli amici di un cliente e, conseguentemente, propone a quest’ultimo i migliori regali che egli potrebbe fare agli amici. In Italia, nel 2011, il Gruppo Ferrovie dello Stato ha iniziato a sviluppare la propria presenza sui social networks, al fine di monitorare e analizzare le opinioni espresse dalle persone sui servizi ferroviari [6].
L’elaborazione dei Big Data può essere messa a valore nell’ambito dell’efficientamento dei processi aziendali e della riduzione di costi. Un originale esempio di applicazione in questo contesto è offerto da McDonald’s, che ha sostituito l’ispezione manuale della corretta produzione dei propri panini (forma, doratura, distribuzione dei semini) con l’analisi automatizzata delle foto dei panini in cottura. La società petrolifera messicana Pemex, invece, ha ridotto il tempo di fuori servizio dei propri impianti di raffinamento ed ha trasformato i propri processi di manutenzione da ciclici a preventivi, grazie all’analisi di indicatori relativi ai livelli dell’acqua, alla pressione, alla temperatura, alla vibrazione dei motori e delle pompe [12].
Anche nel campo della gestione del rischio e dell’identificazione delle frodi i Big Data trovano molteplici ambiti di applicazione. La società assicurativa americana Infinity ha migliorato il tasso di successo di identificazione delle richieste fraudolente di risarcimento danni dal 50% al 88%, grazie all’utilizzo di strumenti di analisi predittiva applicati su dati relativi a richieste di risarcimenti, dichiarazioni dei carrozzieri, coperture dei sinistri accumulate negli anni [12]. Le società delle carte di credito (es. Visa) e le società di credito (es. Citigroup, Zestcash, Kabbage, Lendup) traggono significativi vantaggi dallo sfruttamento dei Big Data in termini di riduzione dei rischi di insolvenza e di frode [12].
L’elaborazione dei Big Data abilita la creazione di nuovi prodotti e l’innovazione dei servizi. La società inglese Hailo offre ad esempio un servizio di prenotazione del taxi in near-realtime basato sull’elaborazione dei dati di localizzazione dei clienti e dei taxi disponibili [13]. In America la società Streetline offre il primo servizio in realtime, su smartphone e su sistemi di navigazione, per la ricerca veloce di un parcheggio, grazie all’elaborazione dei dati di localizzazione degli automezzi e dei dati provenienti da sensori allocati presso i posteggi [14]. Sempre in America, la General Electric nel 2011, con un investimento di un miliardo di dollari, ha lanciato un progetto per la realizzazione di un centro, in grado di sviluppare ed esercire soluzioni per la gestione dei dati digitali resi disponibili da sensori ed altri dispositivi digitali integrati nelle macchine prodotte: i motori aereonautici, le turbine elettriche, i treni, le apparecchiature mediche,... [2]. L’enorme mole di dati prodotti sarà raccolta ed elaborata da General Electric, ai fini di fornire benefici ai propri clienti (es. manutenzione preventiva delle macchine, riduzione dei consumi energetici, miglioramento dei processi operativi) e di migliorare i propri prodotti ed i relativi processi produttivi. In pratica, General Electric sta creando i presupposti per l’Industrial Internet.
La monetizzazione dei dati è un ulteriore modello di business reso possibile dai Big Data. In termini tecnici, stiamo parlando del "data marketplace", cioè della vendita di dati, opportunamente aggregati e pre-elaborati, ad organizzazioni interessate al loro acquisto e sfruttamento. La società Nielsen offre alle emittenti TV servizi basati sulla raccolta ed analisi dei messaggi Twitter, che consentono di migliorare la fidelizzazione degli spettatori [12]. Recentemente si sta sviluppando un nuovo approccio, definito "user-centric", per la commercializzazione dei dati personali, che riconosce agli individui la possibilità di sfruttare i propri dati ed il diritto di stabilire le regole e le modalità di commercializzazione dei medesimi. La società inglese The Data Exchange, ad esempio, già oggi offre una piattaforma attraverso la quale gli utilizzatori possono memorizzare i dati personali, gestirli ed, eventualmente, offrirli in vendita secondo le proprie regole [15].

 

3 - Quali opportunità per gli Operatori?

Gli operatori di telecomunicazione dispongono di grandi quantità di dati provenienti dalle loro reti, dai processi operativi implementati e dai loro clienti; questi asset possono essere valorizzati sia per il rafforzamento del business tradizionale, sia per la creazione di nuovi servizi per le imprese e gli individui. In entrambi i casi gli Operatori devono realizzare nuove infrastrutture tecniche, sviluppare nuove competenze ("data scientist") e rivedere l’organizzazione ed i processi interni.
Vi sono già dei casi concreti di Operatori che utilizzano i Big Data per migliorare il business tradizionale; l’Operatore giapponese KDDI, ad esempio, impiega tecniche di analisi realtime dei dati per migliorare la relazione con i clienti in caso di malfunzioni o disservizio, nonché per ottimizzare la manutenzione preventiva degli impianti e la pianificazione tempestiva degli investimenti. Anche Deutsche Telekom utilizza l’analisi dei Big Data per migliorare il customer care, applicando tecniche di "voice analytics", nonché per ridurre i rischi per gli acquisti on-line [10].
Per il mercato business si assiste alla crescita di offerte di soluzioni e servizi "cloud-based" che abilitano l’analisi dei Big Data "as-a-service"; esempi in questo senso sono costituiti dall’europea T-Systems [16], in partnership con Cloudera, e dalla nipponica NTT Data [17]. Sempre nel mondo business si registra un trend di crescita per i ricavi provenienti dalla vendita di servizi professionali specializzati nella valorizzazione degli asset informativi delle società acquirenti.
Un’altra area di applicazione delle tecniche di analisi dei Big Data che trova sempre maggiori consensi fra gli Operatori è quella relativa all’aggregazione di dati endogeni, di difficile replicazione da parte di altri attori, ed esogeni (es. mappe, eventi pubblici, dati atmosferici), finalizzata alla vendita di dati e loro analisi ad organizzazioni operanti in settori quali retail, advertising, healthcare, automotive, smart city e finance. NTT Docomo, in collaborazione con Pioneer, sta oggi sviluppando una soluzione per la raccolta dei dati di localizzazione provenienti da oltre 61 milioni di dispositivi dalla cui elaborazione è possibile controllare il traffico nel paese. La piattaforma consentirà, tramite API aperte, a sviluppatori esterni di realizzare nuove applicazioni basate su tali dati, mentre la stessa NTT offrirà sia servizi realtime a supporto dei guidatori, sia servizi ed applicazioni alle compagnie assicurative ed alle flotte [18]. Interessante il piano dichiarato nel 2013 dalla coreana SK Telecom, che prevede il rilascio pubblico di dati anonimizzati raccolti da oltre 27 milioni di cellulari appartenenti ai propri clienti. Questo permetterà di realizzare applicazioni sia a SK Telecom sia a sviluppatori esterni, eliminando ogni controversia sull’abuso di posizione dominante di SK Telecom relativamente all’utilizzo di dati personali derivati dalla fornitura dei servizi di telecomunicazione [19]. Verizon Wireless [20], Telefonica Dynamic Insights [21], Orange [22] e SFR [23] anonimizzano i dati di localizzazione provenienti dai device mobili dei propri clienti e li aggregano con altri dati esogeni, al fine di offrire ad organizzazioni pubbliche e private servizi ed analisi dei flussi della popolazione; tali informazioni possono essere utili, ad esempio, per determinare i percorsi dei visitatori in luoghi pubblici (es. stazioni, aeroporti, centri commerciali, centri congressi), per migliorare le congestioni del traffico, o per accrescere il turismo ed il commercio. Infine, Deutsche Telekom [24], da sempre attenta agli aspetti della privacy e della sicurezza dei dati, sta supportando una startup high-tech nella realizzazione di una soluzione per l’aggregazione e la condivisione dei dati personali delle persone, secondo un modello "user-centric"; la piattaforma offre a ciascun individuo la possibilità di memorizzare e gestire le proprie informazioni personali secondo i propri desideri e bisogni, di stabilire le regole di condivisione e di trarre benefici economici dalla loro commercializzazione.

 

4 - Le tecnologie abilitanti

Sui "Big Data" è possibile condurre differenti classi di elaborazioni, ognuna delle quali è abilitata da una diversa tecnologia. Esempi sono:

  • Ÿelaborazioni "on-line", tramite cui applicazioni possono reperire e/o modificare dati organizzati in tabelle di grandi dimensioni;
  • Ÿelaborazioni di tipo batch, ad es. per l’estrazione di nuovi dati o di nuova conoscenza;
  • Ÿelaborazioni interattive, ad es. per permettere alle persone di eseguire "query" o estrarre report da grandi moli di dati strutturati;
  • Ÿelaborazioni su flussi di dati in real-time, ad es. per filtrare o inoltrare eventi secondo modelli "pub-sub".

Elemento abilitante è costituito dai File System distribuiti, in grado di memorizzare file dell’ordine dei gigabyte/terabyte in maniera affidabile, tramite replicazioni, all’interno di un cluster di nodi. Un esempio è fornito da HDFS  (Hadoop Distributed File System) [25]. Operando su hardware di tipo "commodity", questi File System hanno un rapporto costo per byte estremamente basso ed offrono una velocità di accesso ottimizzata (es. 2 gigabit per secondo per nodo) per le elaborazioni. Tali File System sono utilizzati per la raccolta di dati "raw" prima di essere elaborati e/o trasformati dagli algoritmi di analisi. Essi sono impiegati anche per gestire le risorse di memoria necessarie per realizzare database in grado di strutturare grandi moli di dati in tabelle, come quelle usate per memorizzare i dati necessari per servizi on line: ad esempio, i repository per la gestione di profili d’utente o le tabelle di reverse-index a supporto di search. Tali database adottano modelli di memorizzazione di tipo non relazionale, (es. "key-value", "column-family", "document-oriented" [26]), adatti per organizzare in maniera flessibile grosse quantità di dati anche multimediali. Essi offrono operazioni per eseguire interrogazioni e modifiche dei dati, ma realizzano un supporto limitato alle transazioni di tipo "ACID" (cioè quelle richieste dalle applicazioni di tipo bancario). In genere, sulla base del "CAP Theorem" [27], questi sistemi privilegiano la scalabilità (per mezzo del partizionamento dei dati) e l’affidabilità a scapito della "piena" consistenza, sostituita da forme di consistenza "debole" e da un design accurato delle applicazioni e dei modelli dei dati. Esempi di database per le elaborazioni on line sono Dynamo (Amazon), Cassandra (Facebook), PNUTS (Yahoo!), HBASE e MongoDB (open source) [28].
Map-Reduce, sviluppato originariamente da Google [29], è sicuramente il modello più noto per le elaborazioni di tipo batch ed è usato in un’ampia gamma di scenari, tra cui: ricerche su grafi, simulazioni, elaborazioni di immagini, data mining (ad es. tramite la libreria Mahout [30]).
Il nome deriva dalle due fasi principali, in cui si struttura un’elaborazione (Figura 1). Nella fase di Map ogni partizione di un file è elaborato da una procedura Pm, che produce coppie intermedie nel formato (key, value). Nella fase di Reduce, tutte le coppie con una stessa key sono aggregate secondo la logica definita da una procedura Pr. Uno sviluppatore deve solo programmare le procedure Pm e Pr, in quanto tutte le altre funzioni sono fornite dal sistema.

 

Figura 1 - Flusso di una elaborazione Map-Reduce

 

Il modello Map-Reduce presenta numerosi vantaggi, tra cui fault-tolerance, anche su hardware a basso costo, e scalabilità su architetture multi-processore, grazie allo sfruttamento del parallelismo nell’elaborazione dei dati. Soffre anche di svantaggi, tra cui spreco di energia e risorse dovuto al suo approccio di tipo "forza bruta" ed un modello di programmazione molto rigido, che richiede elevate competenze per trasformare elaborazioni complesse in sequenze di Map-Reduce.
Per superare questi limiti sono state proposte numerose estensioni. Ad esempio, sono stati sviluppati modelli di tipo "data flow" come Tez [31]: l’elaborazione è definita da un insieme di task interconnessi tramite un grafo aciclico, che definisce i flussi di scambio di dati. Inoltre, sono stati proposti linguaggi di script (es. Pig [32] e Hive [33]), spesso ispirati ad SQL, con l’obiettivo di allargare la base di programmatori, in grado di sviluppare elaborazioni data-intensive. In genere le tecniche compilative di tali script sui grafi di task hanno raggiunto tali efficienze che gli script possono essere utilizzati anche per condurre elaborazioni di tipo interattivo.
È opportuno citare che accanto a Map-Reduce sono stati sviluppati modelli di elaborazioni alternativi. Ad esempio, Google, la "patria" di Map-Reduce, utilizza anche Pregel, un modello per l’analisi di grafi di nodi di grandi dimensioni [34].
Un’altra classe di elaborazioni di Big Data è quella denominata "Complex Event Processing", la quale permette di analizzare in real-time stream di (big) data. Un esempio rinomato è Storm [35], una piattaforma sviluppata e resa open source da Twitter. Storm è in grado di elaborare stream di dati prodotti in tempo reale, con una ridotta latency, come ad esempio richiesto dalle elaborazioni sui flussi di Twitter. Storm realizza una scalabilità orizzontale, sfruttando la possibilità di parallelizzare le elaborazioni, e, grazie alle sue caratteristiche di fault-tolerance, può essere dispiegato su cluster di nodi a basso costo.

 

5 - Il Joint Open Lab SKIL di Telecom Italia

I Big Data e le relative applicazioni sono al centro delle attività che Telecom Italia porta avanti all’interno del laboratorio SKIL di Trento (invalid link: /content/tiportal/it/notiziariotecnico/2014-01/capitolo-03/note-pie-pagina.html1) che, nato nel 2011, lavora in stretta sinergia con le eccellenze accademiche italiane e straniere per lo sviluppo di soluzioni che valorizzino il patrimonio di dati che Telecom Italia e i suoi partner possiedono.
Le due iniziative più rilevanti realizzate oggi in SKIL sono il progetto Mobile Territorial Lab ed il progetto CitySensing.

5.1 - Il progetto Mobile Territorial Lab

Il progetto Mobile Territorial Lab (invalid link: /content/tiportal/it/notiziariotecnico/2014-01/capitolo-03/note-pie-pagina.html2)  sviluppato insieme a MIT Media Lab, Telefonica e Fondazione Bruno Kessler (Trento), ha l’obiettivo di analizzare le dinamiche ed il valore nella correlazione dei dati personali di diversa natura, al fine di realizzare servizi e applicazioni personal data-oriented [36]. Esso prevede il coinvolgimento di 150 giovani famiglie sul territorio trentino che sono state dotate di uno smartphone, una SIM con credito prepagato e del software a bordo. La piattaforma software sviluppata permette di raccogliere e analizzare qualsiasi dato generato dalla sensoristica a bordo dello smartphone o di device ad esso connessi (es. braccialetti con parametri fisiologici). Seguendo un approccio scientifico, vengono organizzate campagne di raccolta e analisi di dati, che valutano, ad esempio, l’impatto della mobilità e delle comunicazioni sullo stress quotidiano, la prevedibilità dei profili di spesa sulla base del comportamento in mobilità, oppure la predisposizione alla condivisione dei dati personali. In questo percorso è di fondamentale importanza il contributo che viene dai partner accademici, in particolare dal gruppo Human Dynamics di MIT che oggi è considerato uno dei gruppi più rilevanti al mondo sul tema dell’analisi del comportamento da Big Data grazie anche al suo direttore, Prof. Sandy Pentland, uno dei sette scienziati più influenti al mondo [37].
Il MTL trae spunto e indicazioni dalle campagne di raccolta per lo sviluppo ed il test di servizi che fanno un uso massivo di Personal Big Data. Tra questi vi sono Familink e SecondNose. Familink è un servizio che permette ad una comunità iper-locale di famiglie (come quella coinvolta nel progetto) di condividere e scoprire le opportunità sul territorio, attraverso una condivisione avanzata dei propri dati personali ed una esperienza di interazione ed integrazione fra persone che vivono il territorio (Figura 2).

 

Figura 2 - Il servizio Familink sviluppato all'interno di MTL

 

SecondNose è invece un servizio che, attraverso la condivisione a livello territoriale della propria posizione e dei parametri di qualità dell’aria raccolti attraverso un piccolo sensore portatile, permette di creare una mappa partecipata della qualità dell’aria della città, trasformando i cittadini in sensori del territorio e mettendo la comunità al centro dello sviluppo delle città intelligenti (Figura 3).

 

Figura 3 - Mappa della qualità dell'aria generata attraverso i dati raccolti e elaborati dai terminali dei cittadini

 

Le tecnologie sviluppate all’interno di MTL, per una gestione non frammentata dei dati personali del cittadino, abilitano una moltitudine di servizi che, in prospettiva, potranno rappresentare un cambio sostanziale nell’offerta ai cittadini e nel ruolo che l’operatore telefonico ricopre all’interno dell’ecosistema. A tal proposito, affinché la valorizzazione del dato personale diventi un’opportunità e non una minaccia per l’utente, sono in fase di sviluppo tecnologie di gestione trasparente del dato personale: lo strumento si chiama Personal Data Store, (Figura 4), una piattaforma software, ospitata all’interno del cloud di Telecom Italia, attraverso cui ogni singolo utente, per mezzo di una semplice applicazione web o mobile, può controllare la raccolta, l’accesso, la condivisione, la cancellazione di ogni suo singolo dato personale. Il Personal Data Store di MTL è stato citato nel 2013 come uno dei casi di riferimento dal rapporto sui Personal Data del World Economic Forum [38].
Al Personal Data Store si associano altre soluzioni che hanno l’obiettivo di aumentare la sensibilità sul tema della gestione dei dati personali da parte degli smartphone. Ne è un esempio l’applicazione TIM CheckApp [39], sviluppata dall’esperienza di MTL, che permette agli utenti Android di conoscere e scoprire l’utilizzo che le applicazioni installate sul proprio dispositivo fanno dei dati generati dal telefono stesso.

 

Figura 4 - Una vista del Personal Data Store

 

5.2  - Il progetto CitySensing

Il progetto CitySensing, sviluppato in collaborazione con il Politecnico di Milano, ha invece l’obiettivo di monitorare le dinamiche di un territorio attraverso l’analisi e la correlazione di dati anonimi geo-referenziati ed eterogenei. In particolare, oggi a Trento si stanno analizzando i dati provenienti dalla rete Telecom Italia (chiamate, sms, connessioni dati) e dai social network (es. Twitter). Il risultato è una mappatura dinamica della città, focalizzata sui grandi eventi cittadini, che mostra la presenza di persone, i contenuti più discussi, la provenienza e la distribuzione socio-demografica dei partecipanti, il sentiment (gradimento) espresso sui social network …
Tale mappatura rappresenta una sorgente quanto mai precisa e chiara per capire l’evoluzione dei territori, delle città o l’impatto degli eventi che su di essa hanno luogo. In questo senso è possibile sfruttare i Big Data per analizzare macro e micro fenomeni prima invisibili o non catturabili su larga scala.
La piattaforma CitySensing, che è in rapida evoluzione e ancora una volta ospitata nel cloud di Telecom Italia, è stata istanziata in diverse città e per diversi eventi. La versione più completa, (Figure 5a e 5b), è quella implementata  su Milano, dove ad oggi sono stati "monitorati" gli eventi del Salone del Mobile e Fashion Week e dove verrà mappato l’impatto di EXPO 2015 sulla città attraverso lo tsunami di dati che esso porterà con sé.

 

Figura 5a – CitySensing: la mappa della presenza e del sentiment della città di Milano durante il Salone del Mobile

 

Figura 5b – CitySensing: il network dei temi discussi nella città di Milano durante il Salone del Mobile

 

La piattaforma di raccolta e analisi dei flussi sviluppata nel progetto CitySensing apre a innumerevoli opportunità di servizi di monitoraggio e analisi delle dinamiche cittadine, anche al di là di quelle strettamente legate a singoli eventi: dall’analisi dei flussi turistici a quella della pianificazione urbana, alla previsione del rischio o della sicurezza urbana,...
Nei prossimi anni, dunque, i Big Data rappresenteranno così una parte dell’infrastruttura delle città, al pari della rete di illuminazione pubblica o della metropolitana, sulla base della quale i cittadini, le imprese e l’amministrazione potranno fare affidamento per lo sviluppo dei servizi di Smart City.

 

Conclusioni

In conclusione, appare evidente che lo sfruttamento dei Big Data offre innumerevoli opportunità alle organizzazioni pubbliche e private sia per ottimizzare i processi interni ed incrementare il business tradizionale, sia per sviluppare nuovi prodotti e servizi per la "Data-driven Society".
Il processo di trasformazione delle imprese e del relativo business richiede necessariamente tempo ed investimenti per il dispiegamento di infrastrutture tecniche innovative e per lo sviluppo delle competenze richieste ai "data scientist".
L’approccio ai Big Data, di sua natura trasversale, richiede una rivisitazione delle politiche di gestione dei dati all’interno delle organizzazioni, per valorizzare i medesimi come un asset aziendale condiviso. Inoltre è funzionale che i progetti di utilizzo dei Big Data prevedano nativamente sempre il coinvolgimento delle funzioni aziendali responsabili degli aspetti legali e di privacy, per assicurare che gli stessi progetti siano valutati e correttamente indirizzati.
In questo scenario gli operatori di telecomunicazione oltre a trarre beneficio diretto dallo sfruttamento delle grandi moli di dati di cui dispongono, possono anche giocare il ruolo di abilitatori della "Data-driven Society", offrendo prodotti, servizi e competenze a quelle organizzazioni che intendono intraprendere tale percorso di trasformazione.

 
comments powered by Disqus

Fabrizio Antonelli

Luigi Artusio

Corrado Moiso

Scarica l'articolo

Bibliografia

invalid link: /content/tiportal/it/notiziariotecnico/2014-01/capitolo-03/bibliografia.html

Approfondimenti

invalid link: /content/tiportal/it/notiziariotecnico/2014-01/capitolo-03/approfondimenti.html