Sicuri di essere ancora, sempre e soprattutto, consumatori? Sicuri di essere ancora, sempre e soprattutto, consumatori?

Sicuri di essere ancora, sempre e soprattutto, consumatori?

- + Text size
Stampa

“E’ triste dirlo, ma la questione è una sola: se non abbiamo mai scritto una riga di codice è perfettamente inutile che noi giuristi, avvocati, comunicatori, analisti di mercato ci mettiamo a discutere dell’impatto degli algoritmi sulla concorrenza nel mercato digitale. Non abbiamo le competenze sufficienti.” Le parole del Prof. Antonio Sassano, al termine del vivace seminario su “Concorrenza e Innovazione” svoltosi in AGCOM lo scorso 23 Marzo, risuonano ancora nella sala strapiena dove molti esperti del settore si erano dati appuntamento per ridefinire il concetto di concorrenza nei mercati innovativi.

Il punto è che mentre la concorrenza è un prerequisito per una economia liberale, gli sviluppi tecnologici sono sempre esternalità, elementi estranei a qualsiasi policy che ridefiniscono le regole di fatto a ritmi molto più veloci di quanto sia in grado di stabilire il diritto.

Per rendersene conto, ci aveva già dato una grossa mano la Prof.ssa Michal Gal dell’Università di Haifa, nel Keynote sugli “Algorithmic Consumers” che ha aperto i lavori.

In pochi minuti è chiaro che sarà la mattinata delle domande scomode: che succede se di fatto le regole le scrive un algoritmo, cioè un criterio per sua natura opaco, che scavalca e disintermedia i paletti del regolatore, anche perché spesso lavora su server e dati geograficamente collocati fuori dalla sua portata?

Succede, risponde la Prof.ssa Gal, che le grandi aziende Over the Top, come Google e Facebook, si preoccupano solo di realizzare le condizioni legali perché l’algoritmo possa continuare ad agire indisturbato nel trattare i dati dei consumatori.  E questo accade di norma tutte le volte che approviamo i “termini di esercizio”, e i loro periodici aggiornamenti, che normalmente non leggiamo.

La persone, dunque, devono anzitutto essere coscienti, in senso ampio, di quali sfere della propria vita possono essere influenzate, giorno dopo giorno, dagli algoritmi. Superando la nozione di consumatori o utenti, e avvicinandosi a una nuova consapevolezza che comprende tutti gli aspetti del loro ruolo nelle nuove arene competitive.

“A sua volta – continua Gal - l’algoritmo può continuare a lavorare coi loro dati, ma gli enti regolatori devono poter essere in grado, in qualsiasi momento di fermarlo, per fissare nuovi vincoli e nuovi paletti a prescindere dal consenso prestato dagli utenti al momento di sottoscrivere un servizio.”.

Per farlo, fatta salva la segretezza del codice, in ragione delle ovvie esigenze di protezione del brevetto, l’algoritmo deve poter conservare dei “punti trasparenti” dove le autorità possono fissare degli indicatori (flags), impedendone un uso indiscriminato senza danneggiare la proprietà intellettuale.

Ma gli algoritmi e i sistemi di Intelligenza Artificiale – chiede uno studente dalla platea – non potrebbero diventare un bene pubblico? Se lasciamo andare in questa direzione mercati come quello della pubblicità digitale, è ovvio che non ci sarà mai piena concorrenza.  Già oggi, fa notare, Facebook e Google controllano l’85% del mercato, perché la legge del “punto critico” impedisce a soggetti piccoli di contendere quote rilevanti.

La risposta del Commissario AGCOM Antonio Nicita (che ha recentemente pubblicato “Questi anni”, una raccolta di articoli su questi temi)  è netta: “Non possiamo, per lo stesso motivo per cui l’Autorità di Garanzia può intervenire sugli abusi di posizioni dominanti, ma non sulla natura stessa dei modelli di business. E la presenza di nuove tecnologie appartiene ai nuovi modelli, non alle singole, pur grandi, corporation. Al contempo, l’altra cosa da evitare assolutamente, è che venga delegata all’algoritmo il compito di fare da “poliziotto” del  comportamento degli utenti. Ma su questo le posizioni europee sembrano sempre più ispirate al buon senso”.

In un quadro sempre più complesso è forse il caso di rivedere non solo il concetto di “consumatori” ma anche l’idea stessa di “antitrust” , visto che è sempre più sfumata la certezza di “chi consuma chi”.  In questo campo per fortuna i data scientist europei stanno facendo un grande lavoro per rendere trasparente non tanto il codice dell’algoritmo, quanto gli stessi data set che tali algoritmi si ritrovano ad elaborare. “L’Europa, a differenza di altri continenti, è la patria dell’interoperabilità dei dati, un principio che fa parte della nostra cultura. Se garantiamo ai cittadini, prima ancora che ai consumatori, la possibilità di usare i dati a certe condizioni, abbiamo fatto passi molto più avanti di chi, ideologicamente, pensa di rendere tutto privato o – all’opposto – tutto pubblico”.

Il sospetto è però che quasi tutte le soluzioni indicate o anche solo immaginate ripongano troppa fiducia nella tecnologia. Sui rischi dell’approccio tecnodeterminista si sono già pronunciati molti osservatori, anche quelli normalmente collocati al di fuori da questo dibattito, come i sociologi o più in generale gli accademici delle scienze umane. E le lezioni imparate negli ultimi decenni, quando la liberalizzazione delle telecomunicazioni fornì notevoli incentivi alla standardizzazione dei brevetti, (fornendo licenze a condizioni amichevoli, a patto di rispettare gli standard) non sono particolarmente incoraggianti in questo senso.