Recensione a Marco Delmastro – Antonio Nicita, Big data. Come stanno cambiando il nostro mondo, Il Mulino, 2019

È piuttosto raro che un libro riesca a coniugare il tempismo di un instant book, il rigore di una pubblicazione accademica e l’accessibilità di un resoconto giornalistico. Marco Delmastro, direttore del Servizio economico-statistico dell’Autorità per le garanzie nelle comunicazioni, e Antonio Nicita, ordinario di politica economica all’Università di Roma “La Sapienza”, nonché commissario uscente dell’Autorità medesima, hanno il grande merito di aver saputo conciliare queste tre esigenze divergenti in una breve ma ricca monografia dedicata a un tema – “Big data. Come stanno cambiando il nostro mondo” (Il Mulino) – tra i più attuali e stimolanti nel panorama economico-giuridico.

E una trattazione spassionata della materia appare ancor più preziosa, ove si consideri che negli ultimi due o tre anni hanno acquisito sempre maggior credito – persino nel dibattito specialistico – alcune ricostruzioni del fenomeno tanto radicali, quanto approssimative, all’insegna di quella tendenza alla polarizzazione che sembra ormai dominare ogni ambito disciplinare e che non poteva, dunque, risparmiare un tema che influenza – come evidenziano immediatamente gli autori – «ogni sfera della nostra vita, pubblica e privata» (p. 8) e che ha implicazioni dirette o indirette non solo per la riservatezza dei dati personali, ma anche per la tutela della concorrenza nei mercati innovativi e per l’evoluzione dei sistemi politici e l’integrità delle competizioni elettorali.

Ma di cosa parliamo, quando parliamo di big data? L’aggettivo «fa riferimento ad alcune caratteristiche fondamentali: la velocità, la varietà e il volume dei dati raccolti e processati. È da queste tre caratteristiche che si genera […] la quarta v, il valore dei dati» (p. 10). Ma questa messe di dati ha l’ulteriore caratteristica di essere largamente «“non strutturata”, ossia […] aquisita e immagazzinata secondo criteri che differiscono da quelli dei tradizionali database». A mettere ordine in questo mare d’informazioni, provvedono i famigerati algoritmi, che attraverso l’individuazione di regolarità e correlazioni nelle scelte degli individui, possono giungere a prevederne con un certo grado di affidabilità le condotte.

Questo «nuovo modello di organizzazione capitalistica» si articola, dunque, in quattro passaggi – «a) la raccolta di dati rivelati dai comportamenti di imprese e utenti; b) il loro trattamento da parte di appositi algoritmi; c) l’elaborazione di modelli predittivi; d) la valorizzazione economica dell’attenzione e dei dati in genere» (p. 20) – che, come si vede, sono tra loro concatenati in una dinamica circolare: i dati sono al contempo input e output del processo, gli algoritmi se ne servono per affinare le proprie capacità predittive e, così facendo, producono nuove informazioni.

È facile comprendere come la configurazione dell’intero processo dipenda dallo statuto giuridico che riconosciamo al dato: Delmastro e Nicita individuano con grande chiarezza l’interrogativo di fondo dell’indagine nella scelta tra due paradigmi alternativi: «la cessione del dato», si domandano, «è una transazione economica che certifica la natura “proprietaria” del dato o è solo una manifestazione del consenso che ne “delega” il trattamento?» (p. 21). E ancora, se la risposta più convincente è la prima, come gli autori non nascondono di ritenere, «com’è accaduto che siamo stati (auto) esclusi da quel “mercato dei dati” che pure la nostra attenzione ha generato, nello scambio implicito tra attenzione e servizi in gran parte “gratuiti”?» (p. 22).

A ben vedere, però, quella tra proprietà e delega non è una vera dicotomia. Nel presentare i dati come bene economico, con tanto di una propria catena del valore, gli autori tentano di vincere le resistenze di «quanti vedono, giustamente, nel dato personale una caratteristica intimamente connessa con i diritti della persona» (p. 29) muovendo da un approccio pragmatico: «non basta affermare il principio di un dato personale sacro e inviolabile, per essere sicuri che qualcuno non ci abbia già costruito sopra un business» (p. 30). In questo senso, la necessità di applicare ai dati una logica proprietaria – e, dunque, una tutela inibitoria e non solo risarcitoria – non è il riflesso di un dogma ideologico, ma il requisito minimo per la «costruzione giuridica, oltre che economica, di un vero e proprio mercato trasparente dei dati» (p. 31).

Questa costruzione, tuttavia, si rivela meno lineare del previsto: Delmastro e Nicita si appoggiano a una teoria dell’informazione come bene pubblico che non sembra attagliarsi pienamente ai dati personali, i quali esibiscono sicuramente la caratteristiche dell’assenza di rivalità nel consumo, ma non, o almeno non pacificamente, quella della non escludibilità – come, del resto, gli stessi autori riconoscono implicitamente quando ne lamentano, in modo un po’ contraddittorio, la privatizzazione de facto da parte di «chi se ne appropri in via esclusiva ai fini dell’attività di profilazione pubblicitaria» (p. 32). Un bene pubblico in senso tecnico potrebbe essere definito come un bene insuscettibile di appropriazione, sicché non appare persuasivo stipulare che «in questi passaggi avv[enga]una trasformazione fondamentale del dato (o meglio del suo contenuto informativo) da bene pubblico a bene privato» (p. 33).

A ben vedere, l’equivoco sta forse in questo: le teorie dell’informazione come bene pubblico partono dal presupposto che per essere valorizzata o consumata l’informazione debba essere direttamente (un brano musicale) o indirettamente (un farmaco) rivelata: anche in quel caso, invero, non sembra venir meno il carattere dell’escludibilità – e in effetti strumenti giuridici come i brevetti e il diritto d’autore hanno precisamente la funzione di privatizzare l’informazione, e vi ottemperano con una certa efficacia – ma si può almeno affermare che gli incentivi per gli attori di mercato vadano nella direzione opposta; nel caso dei big data, invece, il vantaggio competitivo discende proprio dal controllo esclusivo o semi-esclusivo.

E anche questo è implicitamente confermato da un ulteriore passaggio del ragionamento degli autori, secondo i quali il fatto che «nella gran parte dei casi […] i dati veng[a]no acquisiti e analizzati all’interno di una stessa organizzazione […] è il risultato dell’approccio al dato come “delega” all’uso esclusivo e non come diritto di proprietà oggetto di cessione», con l’ulteriore conseguenza d’ingenerare la fallace impressione che «se un asset è usato in via esclusiva all’interno di una piattaforma, e non sul mercato, esso non sia un bene economico e non permetta di identificare un mercato, distinto, del dato» (pp. 40-41).

Si tratta di una ricostruzione sottile e per certi versi controintuitiva, che merita di essere esaminata nella sua articolazione. Secondo Delmastro e Nicita, i big data nascono come bene pubblico e vengono privatizzati de facto da un numero limitato di operatori che, in assenza di una cornice giuridica definita, ne detengono il controllo all’interno di strutture verticalmente integrate (p. 127); viceversa, riconoscere lo statuto proprietario dei dati, permetterebbe lo sviluppo di un mercato funzionante e ne agevolerebbe la circolazione. In altre parole, gli autori propongono di privatizzare un bene pubblico per aumentarne la disponibilità – una tendenza che potrebbe essere rafforzata da meccanismi come l’interoperabilità o la portabilità, eventualmente con il supporto dell’intervento regolamentare.

Ma sotto questo profilo emerge una duplice tensione, di cui peraltro gli autori mostrano piena consapevolezza. Da un lato, una volta concluso che i dati debbano essere trattati come risorse proprietarie, occorre determinare a chi attribuirne la titolarità. Delmastro e Nicita sostengono, in modo un po’ apodittico, che essa tocchi a chi li genera, cioè agli utenti (pp. 37 e 128 e passim). Ma questo è un approdo tutt’altro che scontato, per almeno due ragioni: la più ovvia è che i big data, come abbiamo già discusso, permettono di sintetizzare informazioni che gli utenti non hanno mai rivelato; la seconda, più sfumata, è che non sussiste una coincidenza perfetta tra la condotta di un soggetto e la generazione del dato corrispondente (nonché il suo contenuto informativo).

Questo è piuttosto evidente nel mondo analogico. Ipotizziamo che Tizio sia un assiduo frequentatore del ristorante di Caio e che quest’ultimo, da oste provetto, sappia ormai prevedere che ogni martedì il cliente richiederà una carbonara. Chi ha generato quel dato: Tizio, che si è limitato a ordinare il pranzo, o Caio che ha notato e memorizzato la cosa e ne ha ricavato una previsione, la cui affidabilità peraltro può essere compromessa dall’eventualità che martedì prossimo Tizio opti per una gricia? È vero che in un ambiente digitale la distanza tra le due distinte funzioni si riduce – è lo stesso clic con cui l’utente esprime una preferenza a far scaturire l’archiviazione del dato – ma ciò non significa che venga meno, come si coglie in tutte le situazioni in cui un clic debba essere interpretato: per esempio, seguire gli aggiornamenti di un esponente politico su Twitter può essere una manifestazione di ammirazione, ma anche di disprezzo, o più banalmente di mero interesse per gli affari pubblici.

Inoltre, venendo alla seconda possibile aporia, non necessariamente attribuire agli utenti la proprietà dei dati che li riguardano condurrebbe all’esito ipotizzato dagli autori, cioè una maggior circolazione dei dati; o ancora questo scenario si potrebbe effettivamente concretizzare, ma a dispetto – anziché in virtù – delle preferenze degli utenti. E ciò potrebbe avvenire tanto laddove i costi di transazione fossero particolarmente alti, quanto semplicemente qualora – pur a fronte di meccanismi di contrattazione collettiva sufficientemente oliati da abbattere i costi di transazione – si trattasse di un esito più efficiente. Sono domande empiriche a cui è impossibile dare risposta sulla base della sola teoria.

In termini di policy, però, questo punto rivela un’altra tensione sottostante, quella tra privacy e concorrenza: una cornice che limiti la circolazione dell’informazione può essere paradossalmente più garantistica dal punto di vista della riservatezza, ma finirebbe per rafforzare gli attori dominanti e favorire la concentrazione dei mercati digitali – almeno a giudicare dagli argomenti di chi ritiene che l’impossibilità di attingere ai dati di cui gli operatori consolidati dispongono costituisca una delle principali barriere all’ingresso dei nuovi entranti (p. 73). Alla questione gli autori dedicano un capitolo particolarmente apprezzabile per l’equilibrio e la completezza della trattazione, in cui danno conto degli argomenti contrari – per esempio, dei rendimenti fortemente crescenti e poi altrettanto rapidamente decrescenti dei dati (p. 79) – e illustrano le implicazioni pratiche della concentrazione dei dati – si veda la discussione del rapporto tra profilazione e discriminazione di prezzo (pp. 81-82).

Più in generale, se la cifra contenutistica del volume è la proposta di riconoscere un diritto di proprietà sui dati, la sua cifra stilistica è quella di un ragionamento spassionato e di vasto respiro, che rifugge la tentazione di cavalcare i luoghi comuni diffusi sul tema – i dati come il «nuovo petrolio» (p. 28), il «capitalismo senza capitali» dei giganti del digitale (p. 51) – tanto popolari nel dibattito pubblico, quanto fuorvianti. Il risultato è un testo che parla ai curiosi, che vi troveranno un’ottima introduzione ai rischi e soprattutto alle promesse dei big data, e agli specialisti, che vi riconosceranno un contributo rigoroso e originale, che arricchisce un campo d’indagine ancora giovane ma destinato ad accompagnarci a lungo.

 

Image result for nicita delmastroBig data. Come stanno cambiando il nostro mondo

Marco Delmastro – Antonio Nicita,

 

Il Mulino

Anno di edizione: 2019

Pagine: 148

ISBN: 9788815283290

 

Share this article!

Share.