La privacy nel mondo dei Big Data

I big data offrono prospettive molto promettenti, non solo per le aziende, ma anche nell’ambito di iniziative e progetti di utilità sociale: basti pensare alle ricerche nel campo medico e farmacologico o alle applicazioni finalizzate a migliorare le infrastrutture ed i servizi a vantaggio dei cittadini.
Questi aspetti positivi non sono però disgiunti da rischi, principalmente connessi ad un’indebita invasione della privacy e ad un utilizzo improprio di informazioni concernenti la sfera privata degli individui. Alcuni di questi rischi sono immediatamente percepibili: la quantità stessa dei dati disponibili e la possibilità di correlazione tra fonti anche molto eterogenee, lo squilibrio nei rapporti di forza tra le aziende ed i consumatori, le maggiori possibilità di controllo da parte dei governi... Altri rischi, come la possibilità di giungere a risultati inaccurati o discriminatori, sono meno evidenti, ma non per questo meno significativi. Ad esempio, le inferenze statistiche individuate da un algoritmo potrebbero aggravare i problemi di esclusione e stratificazione sociale, se indebitamente utilizzate per guidare decisioni rilevanti per un individuo (l’assunzione per un lavoro, la concessione di un mutuo e così via).
Occorre quindi trovare modalità di sfruttamento dei big data compatibili con il rispetto delle normative previste a tutela dei dati personali e dei diritti degli interessati. Peraltro, alcuni dei principi fondamentali previsti dalla normativa privacy europea, e da quella italiana che la recepisce, sembrano quasi antitetici allo sfruttamento dei big data, che per sua natura presuppone flessibilità nella raccolta ed elaborazione dei dati. In particolare, non è consentito accumulare e conservare dati personali senza una finalità ben definita a priori, oppure trattarli per finalità diverse dalla esecuzione del contratto stipulato con il cliente senza il relativo consenso. Ad esempio, è necessario un consenso specifico degli interessati per trattare i dati relativi ai servizi di telecomunicazioni (anagrafiche dei clienti, traffico telefonico,…), per analisi di profilazione dei clienti con finalità di marketing. Anche la bozza del nuovo Regolamento UE sul trattamento dei dati personali, attualmente all’esame del Consiglio Europeo, sembra confermare questa impostazione.
Tale quadro offre tuttavia possibili aperture che, se correttamente attuate, consentirebbero di bilanciare i legittimi interessi delle aziende e la tutela dei diritti dei cittadini. Ciò riguarda in particolare il trattamento di dati resi anonimi o l’utilizzo della pseudonimizzazione (cioè la sostituzione dei dati identificativi con codici che non consentono di individuare i singoli interessati, attraverso meccanismi crittografici irreversibili), nell’ambito di analisi aventi il solo scopo di identificare trend e correlazioni tra le informazioni, senza ricadute verso i singoli individui.
A questo proposito, il gruppo di lavoro che riunisce i Garanti Privacy dei 28 stati membri della UE (il cosiddetto Working Party 29, che prende il nome dall’art. 29 della Direttiva 95/46/CE, che lo ha istituito), sul concetto di "dato personale" ha indicato, nel 2007, tra l’altro, "che i dati pseudonimizzati con sistema tracciabile possono essere assimilati a informazioni su persone identificabili indirettamente; in questo caso, i rischi per gli interessati saranno per lo più bassi, consentendo un’applicazione delle norme più flessibile che nel caso di informazioni su persone direttamente identificabili".
Sviluppando ulteriormente questa linea di pensiero, il Working Party 29, in un successivo parere del 2013, ha chiarito che per i big data possono presentarsi due scenari. Nel primo caso, se l’analisi è finalizzata ad informare misure o decisioni da prendere nei confronti degli interessati (esempio: profilazione dei clienti per finalità commerciali), occorre il relativo consenso esplicito, cioè il cosiddetto opt-in. Quando invece l’analisi ha solo lo scopo di identificare trend e correlazioni tra le informazioni, senza ricadute verso i singoli individui (esempio: studi statistici su dati anonimi e aggregati), la capacità di rispettare il principio di "separazione funzionale" può giocare un ruolo chiave, nel determinare se le analisi possano considerarsi lecite o meno. A tal fine, i dati analizzati non devono essere disponibili per supportare misure o decisioni da prendersi nei confronti dei singoli interessati. Devono perciò essere adottate misure per garantire la sicurezza dei dati; ad esempio i meccanismi di completa o parziale anonimizzazione ed accorgimenti tecnici ed organizzativi che scongiurino la possibilità di re-identificazione degli interessati.
E’ quindi necessario che i progetti di utilizzo dei big data siano attentamente valutati anche sotto il profilo del rispetto della privacy, tenendo in considerazione non solo gli aspetti più strettamente tecnici, quali ad esempio le misure per la sicurezza dei dati o la robustezza dei meccanismi crittografici, ma anche la natura dei dati utilizzati, le modalità della loro acquisizione e del successivo trattamento ed i possibili impatti verso gli individui.

 

Torna all'articolo