Approfondimenti

invalid link: /content/tiportal/it/notiziariotecnico/archivio/2014-2/capitolo-03/approfondimenti.htmlLa gestione end-to-end

 

Verso la rete dei contenuti

L’ecosistema delle telecomunicazioni ed il mondo Internet stanno rapidamente convergendo verso uno scenario ALL-IP, in cui servizi, applicazioni e contenuti saranno forniti esclusivamente su reti IP fisse e mobili.
La disponibilità elevata di banda in accesso tramite l’uso di diverse tecnologie (fibra, Vdsl, 3G, LTE, WiFi) sta rendendo sempre più uniforme e “seamless” la fruizione di applicazioni e contenuti tramite una varietà di terminali molto sofisticati quali smartphone, tablet, connectedTV, PC e STB (Set Top Box). In questo articolo si analizza come i requisiti posti da questo nuovo scenario influenzino la trasformazione della rete verso una “rete di contenuti”.

 

1 - Introduzione

SI nuovi modi di comunicare di persone ed aziende e l’esplosione delle applicazioni rese disponibili in modo intuitivo tramite il modello degli “app store”, causano non solo una continua crescita del traffico dati (il traffico Worldwide nell’ora di picco cresce di un fattore 3,4 nel periodo 2013-2018 da stime Cisco [1]), ma anche variazioni nel mix delle tipologie di traffico e più stringenti requisiti di qualità end-to-end; la componente “video” nel traffico complessivo è stimata da Cisco superiore al 75% del consumer internet nel 2018 (Figura 1).

 

Figura 1 - Crescita del traffico IP

 

La crescita di musica e video online è legata dalla diffusione di nuovi comportamenti degli end-users, con l’utilizzo di cloud-based personal storage e siti di condivisione per fruizione “social”, e con la connettività always-on per la fruizione di contenuti sia copyrighted, sia user generated. Entro il 2018, si stima che TV digitale e video online saranno i due servizi con la maggiore penetrazione, rispettivamente 86% e 78%. La crescita più rapida sarà per il video online (con un CAGR del 10%). Nel segmento dei servizi internet per clienti residenziali, da 1.2 miliardi di utenti worldwide di video online del 2013, si passerà a 1.9 miliardi nel 2018; per quanto riguarda l’utenza affari, la videoconferenza desktop mostrerà la più forte crescita, con quasi 240 milioni di utenti al 2018 (CAGR: 44.8% 2013-2018), mentre si prevede la diminuzione di servizi web conferencing che non includono il video [2].
La fruizione “personale” di contenuti audio e video determina quindi uno spostamento verso servizi di tipo Unicast (servizi on demand); questo è uno dei fattori che portano alla forte crescita della banda di picco downstream. Anche l’upstream tende a crescere, per la diffusione di servizi cloud e modalità “social” di comunicazioni person-to-person, che comportano un incremento dell’ “upload”.

 

2 - Principali attori e modelli di business

L’evoluzione di questo scenario ha determinato significativi cambiamenti nei modelli di business dei principali Players (Telco, OTT/CP Over The Top /Content Provider, Carrier Internazionali) ed ha portato alla nascita di nuovi Player (Content Delivery Provider):

  • i Telco: stanno modificando l’approccio al business IP verso gli end-user e verso OTT/CP. Oltre alla connettività best-effort i Telco iniziano a fornire connettività con qualità differenziata (sia agli end-user, sia ad OTT/CP) e servizi/applicazioni (agli end-user), utilizzando nuovi modelli di business. Il cambiamento è “driven” dai problemi di sostenibilità dei business tradizionali, determinati dalla perdita di valore dei servizi voce e messaggistica, dovuta soprattutto alla competizione degli OTT e dalla crescita esponenziale del traffico IP. L’evoluzione in atto verso l’accesso UBB (Ultra BroadBand) fisso e mobile rende ancora più critica la sostenibilità economica per i Telco, poiché richiede un ulteriore incremento degli investimenti, mentre i vincoli regolatori talvolta limitano l'iniziativa dei Telco anche in settori nuovi, che necessitano di forte propositività, innovazione e libertà di azione;
  • gli OTT/CP (es. Google, Amazon, Netflix): hanno incrementato in modo significativo il fatturato, si sono consolidati nei business legati ad applicazioni/contenuti e sono entrati nei business tradizionali dei Telco (voce e messaggistica);
  • i Content Delivery Provider (es. Akamai, Level 3…): hanno sviluppato business basate sull’offerta, anche a livello internazionale, di servizi (managed services basate su QoE) a qualità differenziata (es. WEB Acceleration&Optimization, Front End Optimization, Video Delivery & Optimization…) ad OTT/CP;
  • i Carrier: dopo aver sviluppato il business del trasporto IP internazionale devono fronteggiare una continua crescita dei costi dei backbone dovuta all’aumento del traffico IP, ed una continua discesa dei prezzi dei transiti, dovuta soprattutto alla affermazione dei Content Delivery Provider.

Con riferimento ad un confronto fra 5 Telco ex-incumbent europei (TI, TEF, FT, BT, DT) ed i “big five” OTT (Google, Facebook, Yahoo, Apple, Microsoft) su alcuni indicatori economico/finanziari (al 1H 2013), si rileva che:

  • i ricavi degli OTT sono superiori (113%) a quelli dei Telco;
  • i livelli di investimento degli OTT sono molto inferiori (53%) a quelli dei Telco;
  • la capitalizzazione degli OTT è molto superiore (oltre 560%).

Inoltre gli OTT sviluppano un business con marginalità per cliente in genere più bassa dei Telco, ma hanno un bacino di utenza notevolmente più grande [3].
Il business model degli OTT è basato su un reach mondiale (garantito da Internet e dalla diffusione di “terminali”, tablet, smartphone, TV connesse, sempre più performanti), e su ricavi da advertising e da servizi/applicazioni offerti ai clienti dei Telco/ISP. Il video, nelle sue diverse forme, rappresenta la parte principale del traffico generato dagli OTT/CP, ed aumentano le offerte di Video OTT a pagamento (il mercato mondiale al 2017 di “OTT subscription video on demand O-SVOD” è stimato di 8 miliardi di dollari) [4].
D’altra parte gli OTT per lo sviluppo del proprio business hanno bisogno che gli end-user possano fruire con adeguata qualità QoE (Quality of Experience) dei Contenuti/Applicazioni che essi offrono. Proprio questo requisito ha consentito la crescita di soggetti (es. Akamai, Limelight, L3) che forniscono servizi CDN, Web Acceleration, Cashing, ADN. Avere elevati throughput e bassi download time è importante non solo per servizi video streaming, ma anche per il web browsing, poiché alla QoE sono legati incrementi dei ricavi da servizi offerti ad end-user e da advertising (Figura 2).

 

Figura 2 - Main Performance Requirements

 

Le nuove Applicazioni (video ad alta qualità, ma anche applicazioni Cloud, applicazioni ad alta interattività, ecc..) hanno requisiti prestazionali crescenti. Per questo OTT e CDN Provider stanno chiedendo ai Telco di inserire le proprie piattaforme per la QoE (server/cache/acceleratori) ‘dentro’ le reti domestiche a partire dai Data Center, per poi entrare nei POP ed avvicinarsi il più possibile agli end-users.
Questo bisogno di migliorare la QoE anche sulle reti domestiche è una importante opportunità per i Telco, che possono offrire agli OTT servizi di delivery con qualità differenziata. Per cogliere questa opportunità i Telco da un lato devono dotarsi di soluzioni idonee per assicurare delivery ad alta qualità (Piattaforme per la QoE), dall’altro devono adottare nuovi modelli di interconnessione IP1.
I modelli di interconnessione IP tradizionali tra Telco ed OTT sono basati sulla modalità di terminazione di traffico di tipo “best effort”; i Telco acquistano transiti, oppure sono interconnessi in peering (in genere free) con gli OTT, i quali non pagano la terminazione sulle reti degli Operatori (oppure pagano cifre molto basse rispetto al valore del loro business).
Da anni accanto ai modelli tradizionali di interconnessione (free-peering, paid-peering, transito) si sono però affermati modelli basati sul delivery con qualità differenziata e nuovi modelli di business (revenue sharing, content delivery services). I nuovi modelli di interconnessione consentono ai Telco/ISP di avere ricavi sia da end-user, sia da OTT/CP, in relazione agli specifici benefici che i diversi soggetti ottengono. Le modalità di terminazione offerte da Telco/ISP possono essere utilizzate da qualunque OTT/CP in linea con i principi della Net Neutrality.
Esempi di nuove modalità di interconnessione fra Telco/ISP ed OTT/CP sono: interconnessione Netflix con Comcast, Verizon ed altri Operatori; interconnessione Cogent/Orange; interconnessione Google/Orange; interconnessione di Akamai con Verizon, ATT, Orange ed altri Operatori; attività di depeering realizzata praticamente da tutti i Telco/ISP.
Il passaggio ai nuovi modelli è spesso accompagnato da contenziosi legali/regolatori tra Telco/ISP e OTT, che hanno generato dibattiti, ancora in corso, sulla Net Neutrality; su questo importante tema, in Europa e negli USA lo scenario sembra molto diverso.
In Europa il dibattito sugli obblighi che la Net Neutrality pone ai Telco (non agli OTT) è tra:

  • Soft Net Neutrality definita come “the ability for a consumer to access and distribute information or run applications and services of their choice” [5];
  • Strong Net Neutrality vista come un insieme di restrizioni/obblighi al trattamento del traffico internet: “all internet traffic is treated equally, without discrimination, restriction or interference, independent of its sender, receiver, type, content, device, service or application” [6].

In USA l’orientamento appare verso la Soft Net Neutrality.
Se il dibattito in Europa finisse per far prevalere un’interpretazione “strong” della Net Neutrality, e se essa fosse riferita anche ai livelli superiori al livello “Network” (Livello 3), ci sarebbe il rischio di restrizioni per i Telco sull’utilizzo di piattaforme per QoE; le reti domestiche dei Telco non potrebbero soddisfare i “services requirements” di alcune Applicazioni/Contenuti, ed i Telco sarebbero penalizzati rispetto agli OTT. Infatti i nuovi servizi potrebbero essere forniti solo se le piattaforme per QoE degli OTT fossero realizzate dagli OTT ed inserite nelle reti dei Telco e vicino agli end user.
Questa lettura restrittiva della Net Neutrality impedirebbe ai Telco di monetizzare la terminazione con qualità differenziata (QoE) sia lato OTT, sia lato end user: solo gli OTT potrebbero offrire i nuovi servizi, mentre i Telco potrebbero offrire solo il trasporto IP di tipo best effort. Se invece le piattaforme per QoE fossero realizzate dai Telco, esse sarebbero disponibili per tutti i Telco/ISP, oltre che per OTT/CP, sulla base di accordi commerciali non discriminatori; si realizzerebbe quindi una ‘vera’ Net Neutrality e un ‘true level playing field’.

 

3 - La nuova sfida per i Telco: la Quality of Experience

Nello scenario appena descritto, la nuova sfida per i Telco non si limita ad offrire una banda in accesso sempre più elevata o a realizzare reti di aggregazione e trasporto sempre più efficienti.
Infatti questa evoluzione dello scenario e dei comportamenti delle persone non si traduce solo in termini di “banda di picco e quantità di traffico IP” sulle reti, ma è legata all’esigenza degli end-user di usufruire di Applicazioni e contenuti con un’elevata QoE (Quality of Experience) sia in termini di modalità di fruizione (in particolare la fruizione in mobilità e su piattaforme multidevice e la fruizione in modalità multiscreen, in cui ad es. Smart TV connesse in rete sono utilizzate contemporaneamente a tablet e smartphone), sia in termini di prestazioni (ad esempio alti valori di throughput a livello Applicativo, bassi tempi di download delle pagine web, integrità e fluidità dei contenuti video, alta affidabilità dei servizi Cloud). È inoltre necessario che la rete sia in grado di inter-lavorare con piattaforme di servizio di terze parti, permettendo al Telco di proporsi come service enabler, ponendosi al centro della relazione fra il cliente finale e il fornitore di servizi/contenuti, tipicamente OTT.
Per migliorare la QoE non è sufficiente avere alti “bit-rate” ed utilizzare tecniche di traffic management (es. COS, DiffSer, cioè operare con meccanismi che migliorano la Quality of Service), ma è necessario agire al di sopra del livello “network” del protocollo OSI (Livello 3) per migliorare:

  • il Throughput a livello applicativo, inteso come la effettiva velocità di trasferimento delle informazioni quando l’utente finale utilizza una applicazione o accede ad un contenuto sul WEB. Il throughput dipende principalmente dalla “latenza” (cioè dal tempo impiegato dai pacchetti per arrivare dai server di rete all’utente finale e viceversa) e dalla perdita di pacchetti (percentuale di pacchetti persi nella rete IP). Latenza e perdita di pacchetti aumentano con la distanza tra il sito web e l’utente finale, poiché con la distanza aumentano i tempi di trasmissione, il numero di router e i collegamenti attraversati dai pacchetti IP;
  • il Download Time, che si riferisce all’effettivo tempo di scaricamento delle informazioni (pagine WEB, contenuti, ecc…). Il download time dipende principalmente dall’efficienza del protocollo (cioè dall’insieme di regole per lo scambio di informazioni tra sito web e l’utente finale).

Il raggiungimento di determinate prestazioni in termini di throughput e download time è indispensabile per rendere possibile la fruizione di alcuni servizi (Figura 2) quali il video streaming 4K (per i quali è richiesto un throughput di 20-25 Mb/s per eventi real-time e di oltre 15 Mb/s per video codificati con MPEG5), servizi Cloud, servizi ad alta interattività, e-Commerce. Inoltre i tempi di download influenzano direttamente ad es. l’appeal che un sito WEB ha verso l’end-user, e quindi hanno un preciso valore economico (Figura 2).
Migliorare la QoE permette anche di ampliare la percentuale dell’utenza che può effettivamente fruire in modo soddisfacente di applicazioni e contenuti sul WEB (in molte aree geografiche il throughput può risultare significativamente inferiore al valore medio, e non adeguato per molti servizi). La rilevanza che la QoE ha per i business di OTT/CP è anche testimoniata dalle iniziative di OTT/CP per misurare in modo capillare, su scala mondiale, la qualità di fruizione degli end-users [7].
Per aumentare il throughput e ridurre il download time si utilizzano soluzioni specifiche che intervengono “al di sopra” del livello di trasporto IP; si tratta delle cosiddette “Piattaforme per il miglioramento della QoE” (CDN, transparent cache, WEB accelerators, ecc…) che:

  • migliorano il throughput riducendo latenza e perdita di pacchetti, poiché avvicinano i contenuti agli utenti finali, attraverso la replicazione di contenuti con tecniche di caching (Piattaforme di Caching: Transparent Caching e Content Delivery Network);
  • riducono il download time migliorando lo scambio di informazioni tra sito WEB ed i terminali dell’ utente finale (ad es. attraverso tecniche di Protocol Optimization, utilizzate nelle piattaforme per Web Acceleration).

È importante evidenziare che l’utilizzo di piattaforme per la QoE permette anche saving nei costi di rete, in particolare inserendo in rete delle cache si possono ottenere saving, che dipendono dalla “cache efficiency”, cioè dalla percentuale di traffico che viene inviato all’ end-user dalla cache stessa rispetto al traffico totale che arriva all’ end-users; il saving è tanto maggiore quanto maggiore è la differenza fra i costi di rete per trasportare traffico nella tratta “a monte” della cache ed i costi della cache.
I saving ed il miglioramento della QoE si ottengono generalmente in misura tanto maggiore quanto minore è la “distanza” fra la piattaforma di QoE e l’utente finale; per questo è necessario che la rete di trasporto IP permetta la massima flessibilità nell’inserimento di queste piattaforme.

 

4 - Content Delivery Network

L’utilizzo della CDN richiede un accordo tra il Content Provider ed il CDN Provider e consente al CP la gestione di un palinsesto sia di contenuti ‘stabili’, cioè che non vengono aggiornati frequentemente (es. commercial movies, VoD), sia di canali “live” che vengono accelerati dalla piattaforma.
Basandosi su un principio di funzionamento relativamente semplice, la CDN (Content Delivery Network) offre un servizio molto importante ai Clienti che hanno necessità di distribuire contenuti. L’obiettivo è di ottenere un miglioramento nella fruizione di contenuti multimediali Live o VOD da parte degli end-users; questo risultato si ottiene memorizzando copie dei contenuti su delle cache apposite, distribuite nella rete (nei PoP di accesso), dalle quali gli utenti finali potranno fruirne direttamente. Il contenuto viaggerà in rete solo una volta per raggiungere la cache remota, che si occuperà, poi, di replicarne la trasmissione, per tutte le richieste relative, a lei afferenti successivamente.
I vantaggi sono i seguenti:

  • l’utente finale migliora la qualità di fruizione dei contenuti (QoE), in particolare migliora il throughput e il download time poiché i contenuti sono distribuiti e più vicini;
  • l fornitore dei contenuti migliora il reach del suo servizio e offre una migliore qualità ai suoi Clienti;
  • l Telco riduce il traffico sul backbone e quindi riduce i costi di rete.

Punti distintivi della CDN Telecom Italia sono la sua distribuzione geografica, che riduce la distanza tra i contenuti e i Clienti (virtualmente a un solo hop), protocolli di streaming adattativi, che consentono di ottenere le migliori prestazioni in funzione del tipo di terminale del Cliente e del throughput di rete, e la gestione dell’intero ciclo di vita dei contenuti.
La CDN di Telecom Italia è utilizzata sia per i servizi offerti da Telecom Italia ai suoi Clienti, sia da Content Provider, Broadcaster, OTT che acquistano il servizio di distribuzione dei contenuti.
L’architettura di riferimento è mostrata in Figura 3.

 

Figura 3 - Architettura della CDN Telecom Italia

 

Agli Origin Server “arrivano” i contenuti provenienti dai Content Provider e che devono essere distribuiti nei nodi della CDN (gli Origin Server possono essere dei Content provider stessi).
Gli Acquirer prelevano i contenuti dagli Origin Server e sono responsabili della corretta distribuzione sui nodi di erogazione. I contenuti vengono replicati sui nodi della CDN in base alla particolare gerarchia topologica del servizio.
La funzione primaria del SR (Service Router) è il bilanciamento del carico e il reindirizzamento, verso il corretto dispositivo di erogazione (Streamer), della richiesta fatta dal client utente, sulla base del carico e della locazione delle cache. Nella scelta del nodo da utilizzare il SR tiene conto dello stato delle singole macchine, monitorate in tempo reale (ogni 2 sec.) sui seguenti parametri: CPU, Memoria, I/O dischi, sessioni contemporanee, guasti HW. Infine, gli Streamer sono i nodi di erogazione veri e propri che si occupano di trasmettere il contenuto agli utenti finali.

 

Figura 4 - Flusso delle azioni per l’erogazione di un contenuto da CDN

 

Negli ultimi 12 mesi il traffico di picco (Figura 5) è praticamente raddoppiato passando da 68 Gbps a quasi 120 Gbps; la previsione per fine 2014 è di circa 160 Gbps. Ciò che si nota è una tendenza forte all’aumento del traffico live e delle dimensioni dei cataloghi VOD (Video on Demand) di tutti i Content Service Provider che si servono della CDN TI. Fra questi, Mediaset (free, Premium e Infinity), Sky (SkyGO), Tim Vision, Serie A Tim, FS Holding, Trenitalia, Istituto Luce. Recentemente è stato anche annunciato una accordo TI-SKY per replicare su rete broadband il palinsesto di canali SD/HD dell’offerta su satellite, che porterà ad un ulteriore, elevato aumento del traffico erogato da CDN a partire da inizio 2015.
Più in dettaglio: l’attuale CDN di Telecom Italia è distribuita su 23 POP della rete core (OPB) con POP di Roma e Milano ridondati; la CDN ha oggi una capacità di rete (licenze flessibili) pari a 110Gb/s e fornisce supporto per contenuti codificati in diversi formati, distribuiti tramite i più diffusi protocolli disponibili, comprensivi delle modalità ABR su HTTP (Smooth Streaming, HLS).
La soluzione consente una rapida scalabilità delle capacità (Gbps) del singolo POP in caso di necessità ed è stata completata con i servizi di reportistica, relativi all’utilizzo dei servizi offerti, personalizzabili sia sulla base del servizio sia sulla base del Content Provider e con gli automatismi di fault tolerance e ridondanza (locale e geografica) trasparenti per l’utilizzatore finale.
Linee di sviluppo più rilevanti riguardano l’ampliamento della banda fino a 160 Gb/s e della capacità di storage sui POP, l’inserimento di nuovi Acquirer (Milano e Roma) e di meccanismi di backup su una seconda CDN (CDN selector).

 

Figura 5 - Traffico CDN ultimi mesi 2013/2014

 

5 - Caching trasparente

In aggiunta alle soluzioni CDN, basate su un accordo commerciale con il Content Provider, le tecniche di caching sono spesso utilizzate anche per traffico IP che trasporta  contenuti che non sono ‘stabili’ (ad esempio contenuti di siti Web) oppure per traffico per il quale non esiste un accordo con il Content Provider (ad esempio traffico di Netflix). In questi casi si utilizzano piattaforme di TC (Transparent Caching).
Per chiarire come funziona il TC consideriamo  pagine Html, che possono richiamare un numero molto elevato di oggetti (testi, figure, filmati), eventualmente provenienti da più server web. Di questi oggetti un certo numero può rimanere invariato nel tempo ed essere riutilizzato in più pagine (si pensi ad esempio al Logo Telecom Italia che compare in tutte le pagine del portale).
Per rendere più veloce il caricamento delle pagine (ed occupare meno risorse della rete di trasporto IP) si può pensare di mantenere in una memoria locale questi oggetti statici e di riutilizzarli all’occorrenza. È quanto fa normalmente il  browser che mantiene gli oggetti in una “cache” del  PC.
Ma quali sono gli oggetti “statici”? In realtà questo attributo non è associato all’oggetto, ma è descritto nell’header del messaggio del protocollo http che viene utilizzato per trasferirlo: normalmente sono utilizzati i campi “cache-control” o ‘Pragma” e viene anche specificato un periodo di validità dell’oggetto.
Quindi il caching di intere pagine o di singoli oggetti è esplicitamente previsto dal protocollo http ed è realizzato non solo dai browser, ma anche dai proxy-server http: questi ultimi sono normalmente inseriti al confine tra due reti IP (ad esempio una rete privata ed una rete pubblica) con molteplici scopi che vanno dal NAT applicativo, all’incremento del livello di sicurezza e di privacy, alla possibilità di effettuare appunto caching.
In presenza di un proxy-server il client richiede gli oggetti al proxy ed il proxy li richiede al server per conto del client. Quando un proxy ottiene un oggetto, se ciò è possibile in base a quanto segnalato nel messaggio http, ne mantiene una copia.
Per ridurre le latenze, migliorare la QoE e ridurre il traffico sul backbone gli Operatori stanno introducendo nelle loro reti sistemi di caching trasparente, che memorizzano localmente i contenuti Internet  richiesti più frequentemente per erogarli direttamente ai clienti.  Nel transparent caching si possono memorizzare i contenuti delle pagine WEB (WEB caching), i video (video caching),  per i quali i volumi di dati sono particolarmente elevati, e i file di grandi dimensioni (es. upgrade SW, applicazioni per PC/smartphone).
Il Transparent caching è permesso anzi agevolato dal protocollo http e la possibilità di effettuarlo è prevista da un punto di vista legale. Le tecniche di caching trasparente possono essere basate su un’architettura di tipo proxy, come citato per le reti private, ma mantenendo l’indirizzamento delle richieste originario, in modo che al cliente sembri di essere sempre connesso al Content Provider.
Il proxy quindi deve rispondere al client con l’indirizzo del server e valutare se la richiesta è per un oggetto che è disponibile localmente, nel qual caso glielo invia direttamente. Se l’oggetto non è disponibile, il proxy apre una richiesta verso il server, invia l’oggetto al client e lo memorizza in locale se è un contenuto richiesto da molti clienti.
Questo schema generale ha una serie di varianti che tendono a garantire la “trasparenza” anche verso il server. Una variante comune è quella di lasciare transitare in una fase iniziale le connessioni direttamente verso il server monitorandole: nel caso in cui vi sia una richiesta di un oggetto che il proxy ha in cache, il proxy manda un reset della connessione verso il server, e continua il trasferimento dei dati verso il client: in questo modo le eventuali statistiche raccolte dal server non vengono modificate.
In un’ulteriore variante, viene superato lo schema del proxy non deviando il flusso principale del traffico, ma inviando al server che realizza la funzione di transparent cache solo una copia del traffico http. La cache ha ulteriori interfacce verso la rete tramite le quali sarà esposto un web server. Dalle interfacce in monitoring vengono acquisiti i contenuti monitorando le sessioni http: nel caso sia riconosciuta la richiesta di un contenuto già in cache viene utilizzata una delle interfacce di erogazione per inviare un reset della connessione verso il server ed una risposta alla richiesta http che impone al client di richiedere l’oggetto alla cache.
Vanno infine citate le piattaforme di rete che realizzano funzionalità di caching come ausilio ad altre funzionalità. In tale ambito rientrano i sistemi di ottimizzazione Video e WEB, oggi disponibili su rete mobile, che sono dotati di cache interna dove vengono memorizzati  i video e i contenuti WEB ottimizzati (che, grazie ad tecniche di compressione, hanno volumi ridotti rispetto all’originale). Il caching evita di elaborare  più volte lo stesso contenuto.
Per quanto riguarda la riduzione dei volumi di traffico, a seconda del contesto, ci si possono attendere valori nell’ordine del 30-40%- sul totale del traffico http (la cache efficiency sul  traffico video downstream secondo alcuni costruttori raggiunge valori compresi fra il 60% e l’ 80% [8] , ed il video rappresenta più del 50% del traffico, come richiamato in Figura 1), Oltre ai contenuti video il transparent caching agisce anche su altri tipi di traffico (es. contenuti di siti Web, aggiornamenti sw distribuiti in rete) e consente di ridurre anche questi volumi.

 

6 - Deep Packet Inspection

Abbiamo visto come negli ultimi anni sia cambiato il modello per fornire i servizi video in rete: siamo passati da reti dedicate “overlay” (es. IPTV) all’utilizzo del trasporto IP (livelli da 1 a 3) comune a tutti i servizi. In questo contesto, quando il servizio video (es. alta qualità) richiede prestazioni (throughput e download time) che il trasporto IP non è in grado di fornire si devono utilizzare piattaforme ‘sopra’ il livello 3 che avvicinano i contenuti agli end user,  migliorano le prestazioni dei protocolli per lo scambio di informazioni tra sito Web e apparato del Cliente e quindi migliorano il throughput e il download time.
Oltre ai parametri classici di QoS di rete, si rende quindi necessario  monitorare il throughput end to end degli applicativi, il download time dei contenuti e valutare la QoE degli end user, tramite tecniche di DPI (Deep Packet Inspection) che operano in rete, e  Agent SW  che operano invece sugli endpoint della comunicazione.
L’utilizzo di tecniche DPI, consente all’ISP di effettuare, raccogliere e mettere a disposizione  di terzi misure oggettive di  throughput.  Si tratta di misure di rete effettuate sul traffico live, ma in maniera del tutto trasparente per l’utente finale, proprio nella tratta client-server; sono misure che forniscono indicazioni  sulla qualità dell’esperienza percepita dall end-user. Le tecniche DPI  effettuano analisi dei pacchetti IP, senza entrare nel merito dei contenuti,  per valutare il tipo di servizio, il tipo di Provider  e per ottenere misure di prestazioni. Tali misure possono riguardare tutti i servizi video, sia quelli realizzati dagli OTT sia quelli realizzati in proprio dagli ISP.
Le tecniche DPI permettono di  misurare il valore di throughput medio per specifica applicazione, Content Provider e tipologia di terminale, e  fornire  un’indicazione significativa di come il traffico applicativo venga distribuito nella rete tra i clienti.
Altro elemento significativo per la qualità sperimentata dal cliente finale è rappresentato dalla stabilità nel tempo del throughput applicativo. Le tecniche di traffic management, che intervengono ad esempio in caso di situazioni gravemente anomale (congestione dovuta a guasti, attacchi di haker, …), limitano gli effetti negativi delle situazioni di congestione. Fornire evidenza della stabilità delle prestazioni di consegna del traffico ai clienti finali, può rappresentare un elemento importante per i fornitori di contenuto.
Infine, può risultare utile misurare indici di qualità di tipo MOS (Mean Opinion Score) sulla base di criteri collegati alla valutazione soggettiva dei fruitori dei servizi Video. Tali parametri  rappresentano fenomeni che dipendono non solo dalla  rete, ma anche e soprattutto da scelte implementative delle applicazioni e dalle caratteristiche e condizioni di lavoro del terminale d’utente (Client) e del Server.
La loro misura può essere realizzata tramite agent sugli end-point della comunicazione; si tratta di strumenti SW (Agent/Probe) installati sui terminali degli end-user e del Server, capaci di misurare le prestazioni riferite al singolo cliente od anche al singolo applicativo e di ottenere informazioni che consentono di gestire in modo adattativo la consegna dei contenuti per il singolo Cliente (es. adaptive streaming).
Questi strumenti completano le misure fatte con DPI, consentono di misurare parametri che i DPI non possono ‘vedere’ (ad esempio le prestazioni di un servizio/applicazione per un singolo cliente, QoE per un singolo Cliente, dati di dettaglio sulla congestione di una cella).
Operano tipicamente in modalità “Over The Top” e sono infatti utilizzati dagli OTT/CP [7] ad es. nella distribuzione dei contenuti (es. da Google per YouTube e Browser, da Netflix per lo streaming video, da Akamai per la terminazione dei contenuti) e permettono di gestire in modo adattativo real-time la consegna dei contenuti per il singolo Cliente (es. adaptive streaming).
Va ricordato che anche per la rilevazione di prestazioni a livello applicativo e della MOS, le piattaforme DPI mettono a disposizione degli strumenti  che forniscono indicatori su parametri importanti quali: il tempo di attesa tra la richiesta e l’avvio della trasmissione video, il numero di interruzioni della riproduzione, la maggiore o minore risoluzione video e sono in grado di fornire indicazioni classificate per applicazione, Content Provider e tipologia di terminale.

 

7 - Telemetria per servizi TIM Vision

Con il  termine “telemetria” si intendono qui strumenti orientati al performance monitoring continuativo del servizio, utili in particolare per i processi di caring (anche in modalità proattiva), delivery e assurance (troubleshooting) del servizio. Nel seguito vengono richiamate alcune delle esperienze in corso nell’ambito dell’erogazione dei servizi TIMVision oggi presenti nelle offerte multicanale F/M di Telecom Italia.
Per monitorare la qualità del servizio percepita dall’utente è stato sviluppato e integrato  nella suite SW che gestisce il servizio, un modulo specializzato allo scopo. Si tratta di un agent di telemetria che registra l’esito delle interazioni con i sistemi di Telecom Italia e lo invia ad un sistema di gestione centralizzato denominato NGASP.
Tutte queste informazioni, collezionate e storicizzate dal server, vengono raggruppate in diverse macro-categorie, riconciliate con altre informazioni provenienti dai sistemi di backend coinvolti nell’erogazione del servizio e arricchite e rese interpretabili grazie alle conoscenze dei progettisti dell’architettura di erogazione e fruizione del servizio. Si ottengono così delle misure oggettive e significative, corrispondenti alla qualità percepita dal cliente in diverse aree del servizio, che vanno dalla fase di accesso, alla navigazione dei contenuti, alla fase di acquisto e fruizione. Da queste misure si sintetizzano alcuni KPI (Key Performance Indicator) che vengono raccolti costantemente e monitorati periodicamente.
I dati “real-time” raccolti direttamente sul device dell’utente sono molto importanti in quanto consentono l’invio di segnalazioni in tempo reale a fronte di anomalie riscontrate sull’end-to-end, ad esempio criticità momentanee registrate sulla rete di accesso (rif. copertura di rete mobile critica/affollata). Le informazioni di base considerate importanti per la qualità dell’esperienza sono tipicamente collegabili a:

  • errori durante le interazioni con i sistemi di back end;
  • fenomeni registrabili durante il playback dei contenuti multimediali.

Tali contenuti vengono resi disponibili mediante codifiche adattative multilivello, sia per i terminali fissi che per i terminali mobili. Questo consente di gestire - con una unica library di contenuti a differenti livelli qualità – le diverse modalità di erogazione e accesso del servizio ai clienti in copertura mobile e fissa UltraBroadBand.
Con queste codifiche il contenuto viene suddiviso e trasmesso in piccoli spezzoni (media chunk), in modo tale che il Media Player possa richiedere ogni singolo spezzone a qualità differenti. Il Player infatti - per tutta la durata della fruizione del contenuto multimediale – scaricherà un frammento, misurerà la banda disponibile e deciderà che livello qualitativo richiedere per ottenere il prossimo frammento. Questo a garanzia che la fruizione sia sempre armonizzata e ottimizzata rispetto la banda realmente disponibile.
Per determinare i KPI indicativi della qualità della fruizione si è optato per isolare tutti quegli aspetti che si ritiene impattino maggiormente l’esperienza utente. Innanzitutto ci si è concentrati sul parametro denominato “bitrate ratio”, che rappresenta il rapporto fra il bitrate medio misurato durante la fruizione (dovuto alle scelte fatte dal player in funzione della banda reale a disposizione) e il bitrate massimo disponibile per quel contenuto. Questo KPI è indicativo della qualità direttamente percepita, infatti se ogni chunk (spezzone) è stato scaricato alla massima qualità, la visione sarà stata la migliore possibile. Quanto invece più ci si allonta da questo target ideale tanto peggiore sarà l’esperienza di visione.
Si sono poi aggiunti altri KPI che misurano alcuni aspetti rilevanti per la esperienza utente quali:

  • il tempo di attesa per la presentazione del primo frame video sullo schermo del device (avvio playback del contenuto);
  • il numero e durata delle pause nel playback causate da fenomeni di re-buffering;
  • i decrementi di qualità/banda di codifica, registrati in occasione delle richieste di nuovi chunk.

I dati raccolti mediante questi report di servizio possono essere ulteriormente sintetizzati in un unico indicatore per avere una visione dell’andamento del servizio molto di alto livello, oppure possono essere analizzati in modo dettagliato per scoprire situazioni anomale per tipologia di reti/terminali e/o location territoriali.
Queste stesse informazioni possono poi anche essere impiegate in modo puntuale per scopi di caring & assurance a valle di segnalazioni puntuali. In questo caso è possibile aumentare la “verbosità” della telemetria in termini di frequenza e dettagli, convogliando queste informazioni mediante apposite “trap” applicative.

 

Conclusioni

I contenuti e in particolare il servizio video  generano  già oggi circa  il 70% dei volumi  dati che le reti dei Telco trasportano, e la loro  incidenza è destinata ad aumentare in modo evidente nei prossimi anni.
La fruizione dei contenuti avviene un modo sempre più convergente e trasparente sulle diverse tecnologie di rete fissa e mobile e su diverse tipologie di terminali, grazie al denominatore comune costituito dal protocollo IP.
Ai tradizionali Content Providers (Major hollywoodiane, broadcaster televisivi) si sono affiancati nuovi soggetti OTT dedicati alla distribuzione sia di contenuti premium che autoprodotti, alimentati dal modello “social”; i contenuti premium inoltre proseguono la loro rincorsa della qualità ottimale, con il prossimo passaggio dal full HD al 4K.
La nuova sfida  per i Telco è quella della Quality of Experience- QoE, che aggiunge alle tematiche tradizionali delle reti broadband (accesso in primis) nuovi requisiti sul trattamento a livello applicativo dei servizi (service-aware networks) e sulla gestione end-to-end di tutti gli elementi della catena tecnologica, così da consentire al cliente finale un’esperienza ottimale.
In passato la risposta dei Telco alla richiesta di fornire servizi video è stata tipicamente la costruzione di una soluzione “ad-hoc”, in overlay alle infrastrutture esistenti, ed ottimizzata per il traffico video (spesso ci si riferisce a queste soluzioni con il termine “IPTV”).  Questo approccio, di tipo “verticale”, non è più adeguato al nuovo scenario,  nel quale il video occupa un ruolo preminente,  si multiplicano applicazioni e modalità di fruizione nuove basate sull’interattività, aumenta in modo esponenziale la generazione dei contenuti video da parte dei clienti  e l’integrazione di questi contenuti all’interno delle reti sociali, l’ubiquità dell’accesso e la possibilità di fruire i contenuti in modalità multidevice e multiscreen.
I Telco stanno trasformando le proprie infrastrutture per dotarsi di una “unica rete”  capace di trattare, in modo efficiente e flessibile, il traffico secondo il paradigma  “All-IP” (tutte le applicazioni, contenuti, servizi utilizzano il protocollo IP). Per soddisfare gli specifici requisiti prestazionali  delle diverse tipologie di Applicazioni  (navigazione WEB, gaming, E-Mail, Content Delivery, servizi interattivi person-to-person…), si  utilizzano soluzioni (le “Piattaforme per la QoE”, come ad es. le CDN, l il Transparemt Caching, i WEB accelerators, la Video e la Web Optimization [10]…) che operano “al di sopra” del livello di “network IP” (livello 3 delle reti).
Con questo approccio, il Telco da un lato ottiene una riduzione del TCO, dall’altro può offrire ai suoi Clienti e ad OTT e CP servizi di terminazione del traffico IP  adeguati ai livelli di QoE richiesti dai nuovi servizi.
I Telco possono offrire servizi premium agli end-user  che vogliono furire  di contenuti ed Applicazioni che richiedono alti valori di Throughput e bassi valori di Download Time, e possono definire  modelli di business di tipo “two sided market”  valorizzando al meglio i propri asset distintivi: gli end-users e le infrastrutture di rete.

 

Bibliografia

  1. Sito Visual Networking Index – VNI Cisco - http://www.cisco.com/c/en/us/solutions/service-provider/visual-networking-index-vni/index.html
  2. Cisco VNI Service Adoption Forecast, 2013–2018 – White Paper - June 2014
  3. Informazioni e valutazioni riportate in:
    • “Why Google, Facebook, and Twitter Ad Revenues Still Have Plenty of Room to Grow” - Chris Brantley - June 10, 2014 - http://www.fool.com/investing/general/2014/06/10/why-google-facebook-and-twitter-ad-revenues-still.aspx
    • Verizon Press Release” - January 21, 2014 - http://newscenter.verizon.com/corporate/news-articles/2014/01-21-verizon-reports-2013-4q-earnings/
    • “By the numbers, 40 Amazing Google search statistics and Facts” – Craig Smith – Feb 2104 - http://expandedramblings.com/index.php/by-the-numbers-a-gigantic-list-of-google-stats-and-facts/#.U6klXkBLSJc
  4. Informazioni e valutazioni riportate in: “The OTT TV Push for Original Content Shakes Up Business Models”  - Tara Seals - February 07, 2014 - http://www.techzone360.com/topics/techzone/articles/2014/02/07/369510-ott-tv-push-original-content-shakes-up-business.htm
  5. Digital Agenda for Europe website (June 2014) - https://ec.europa.eu/digital-agenda/about-open-internet
  6. European Parliament first reading vote on the proposal for Regulation concerning the European single market of electronic comm.  -  p.r.  03/04/2014 - http://www.europarl.europa.eu/sides/getDoc.do?type=TA&language=EN&reference=P7-TA-2014-0281
  7. The Akamai State of the Internet Report - http://www.akamai.com/stateoftheinternet/;
    Google Video Quality report - http://www.google.com/get/videoqualityreport/
    The ISP Speed Index From Netflix - http://ispspeedindex.netflix.com/
  8. “Video Optimized Caching: New Challenges for Content Delivery” Qwilt White Paper - http://www.qwilt.com/solutions/transparent-caching/
  9. RFC 2475, “An Architecture for Differentiated Services”.
  10.  V. Condò, A. Cotevino, "Sistemi di ottimizzazione web e video su rete mobile", pp. 114-123 Notiziario Tecnico N° 2 – 2013
 

comments powered by Disqus