Responsabilità delle piattaforme digitali ed esigenze di regolamentazione. Società e responsabilità

0

Convegno Corecom Lombardia

LA NUOVA RIFORMA EUROPEA SUL DIGITALE

Milano, 13 maggio 2021

Intervento di Antonio Palmieri

Buon pomeriggio e grazie per avermi invitato a partecipare a questo importante momento di riflessione. Dopo le parole della presidente Sala, sembra che io sia qui per promuovere il mio ultimo libro… e in effetti è così: sono qui per dirvi del mio ultimo libro perché è un libro politico, che propone soluzioni politiche per garantire la libertà di espressione e un corretto rapporto tra le piattaforme e i politici, i media e i cittadini.

Il titolo del libro “Social è responsabilità” usa il verbo essere per indicare che la responsabilità è (appunto) il cardine della presenza nei social per tutti i protagonisti: proprietari e gestori delle piattaforme, istituzioni, cittadini. Nel segno della responsabilità, parto dall’estromissione di Trump da tutte le piattaforme per proporre alcune considerazioni sul ruolo delle stesse (servizio pubblico o privato, editori sì o no, ruolo delle bolle, fake news, ecc.) e propongo tre ipotesi di accordo tra Unione europea e piattaforme.

Prima proposta. Adottare i “Princìpi di Santa Clara”

Poiché non può essere il potere politico a decidere che cosa è verità e cosa no e quindi ad assumersi l’onere della moderazione dei contenuti, il dibattito dura da anni e in estrema sintesi si è arroccato su due posizioni tra loro contrapposte: autoregolamentazione versus normativa vincolante. Anche in questo caso, è tempo di superare questa impostazione, passando da un approccio “aut aut” a un approccio “et et”. La nuova regolazione va fatta CON le piattaforme, tramite un dialogo serrato e tecnicamente accorto, per evitare di aprire nuovi problemi, magari senza nemmeno risolvere i vecchi e nella consapevolezza che solo le piattaforme possiedono la tecnologia necessaria per intervenire tempestivamente in caso di bisogno.

La strada “et-et” che propongo è quella di stipulare accordi con le piattaforme per una autoregolamentazione riveduta, corretta e migliorata e contemporaneamente lavorare per approvare una normativa che sia tecnicamente praticabile e rispettosa delle libertà di tutti.

Bisogna rendere più chiari e trasparenti i criteri di moderazione e rendere realmente appellabili gli atti di cancellazione di post o di sospensione di account. In questo senso, faccio mia la proposta avanzata dal co-direttore del Centro Nexa su internet e società Juan Carlos De Martin nella sua riflessione pubblicata il 13 gennaio dal quotidiano La Stampa. Come gesto di concreta disponibilità a una maggiore responsabilizzazione, le piattaforme potrebbero sottoscrivere e attuare i “Principi di Santa Clara”, che devono il loro nome alla località nella quale si riunirono per la prima volta il 2 febbraio 2018 i rappresentanti di un gruppo di organizzazioni, sostenitori ed esperti accademici che supportano il diritto alla libertà di espressione online. Dopo alcuni mesi di lavoro, il 7 maggio 2018 essi formularono tre regole che aumentano la trasparenza e responsabilizzano le piattaforme circa la moderazione dei contenuti online. Applicandole, le piattaforme renderebbero la loro moderazione più equa e rispettosa dei diritti degli utenti. Chi volesse approfondire i contenuti dei tre Principi, può consultare https://www.santaclaraprinciples.org. Qui ne propongo il riassunto.

  • Prima regola, numeri. Le aziende pubblicano il numero di post rimossi e gli account sospesi in modo permanente o temporaneo e le statistiche su tutti gli aspetti degli interventi di moderazione effettuati, ricorsi compresi.

 

  • Seconda regola, trasparenza. Le aziende informano in tempo reale ciascun utente il cui contenuto viene rimosso o l’account viene sospeso del motivo della rimozione o della sospensione. Per esperienza diretta con situazioni di questo tipo capitate a esponenti di Forza Italia, posso confermare che ciò semplificherebbe le cose e garantirebbe rispetto e trasparenza.

 

  • Terza proposta, ricorsi. Le aziende forniscono la possibilità di presentare tempestivo ricorso a qualsiasi rimozione di contenuto o sospensione dell’account. Rendere più semplice il ricorso comporta affidare a persone (e non ad algoritmi) la gestione della pratica, naturalmente persone non coinvolte nella decisione iniziale di sospensione.

 

Si tratta di tre principi semplici, chiari ed equi, che migliorerebbero significativamente la situazione e che in parte sono stati ripresi anche dalla proposta di normativa avanzata dalla Commissione europea, il Digital Service Act.

Seconda proposta. Regole ad hoc per i politici.

I Principi di Santa Clara tutelano tutti. Come ulteriore clausola di salvaguardia per chi svolge attività politica, si potrebbero istituire termini di servizio particolari per tutti coloro che ricoprono incarichi istituzionali, a qualsiasi livello, purché democraticamente eletti. Sarebbe l’ennesimo privilegio per la “casta” oppure una forma di protezione rinforzata della libertà di espressione per coloro che hanno responsabilità politiche e istituzionali? Comunque la si veda, una cosa è certa: le piattaforme dei social media non hanno il diritto di praticare interventi politicamente discriminatori.

I politici e le organizzazioni politiche in effetti hanno già uno status particolare. Come ho potuto notare sul campo, Twitter e Facebook (e Instagram) hanno nel corso del tempo reso sempre più lunghe e rigide le procedure per avere la spunta blu che certifica l’autenticità dell’account di un esponente politico.

Inoltre, Facebook ha introdotto a partire dalle elezioni europee 2019 una serie di regole più stringenti per la pubblicità politica. Come ho verificato durante quella campagna elettorale, si tratta di una serie di indicazioni che rendono accessibile a tutti l’identità dei soggetti che sponsorizzano campagne pubblicitarie sulla piattaforma di Zuckerberg e persino i dati sulla spesa dei singoli post. Questa iniziativa è un tentativo di mettersi al riparo dalle accuse di manipolazione e di ingerenze straniere nelle campagne elettorali dei singoli Paesi, tuttavia anche in questo caso la politica ha un percorso differente rispetto alle imprese.

Se quindi alla politica già viene applicato dalle piattaforme uno “statuto” particolare, perché allora non pensarne uno ad hoc anche per i contenuti postati da esponenti politici e da organizzazioni politiche?

La mia proposta è molto semplice: l’Unione europea (e, perché no, anche gli Stati Uniti e le altre democrazie occidentali) potrebbero definire un accordo con le piattaforme, in base al quale nessun contenuto postato da esponenti politici eletti può in alcun modo essere rimosso dai social e che nessun account di partiti o esponenti politici può essere oscurato senza un provvedimento da parte dell’autorità giudiziaria, a seguito di una violazione delle leggi vigenti. Mi rendo perfettamente conto che si tratta di una proposta molto “forte” ma invito a considerarla da un punto di vista generale, evitando di cadere nella “trappola emotiva” prodotta dal caso di un personaggio dirompente e polarizzante come Trump, che inevitabilmente condiziona il giudizio.

D’altronde, proprio in Italia abbiamo un precedente che conferma la bontà della proposta: la vicenda CasaPound-Facebook. L’11 dicembre 2019 il Tribunale civile di Roma ha ordinato a Facebook di riattivare la pagina di CasaPound e il profilo personale di uno dei suoi capi, che erano stati oscurati da Facebook per violazione dei termini di servizio. Nella motivazione della sentenza si afferma che l’importanza assunta da Facebook per l’attività politica determina in capo a questo fornitore di servizio degli obblighi speciali, che costituiscono “ad un tempo condizione e limite nel rapporto con gli utenti” in riferimento alla tutela del pluralismo partitico (articolo 49 della Costituzione) e dei principi di libera associazione (articolo 18) e di libertà di espressione (articolo 21). Il 24 aprile 2020 il Tribunale di Roma ha rigettato il ricorso di Facebook, imponendo la riattivazione immediata e il pagamento delle spese legali, per un ammontare di 12.000 euro. Il tribunale ha ribadito nella motivazione che il contratto privato trova dei limiti nel rispetto dei principi sanciti dalla Costituzione. Ciò significa che le condizioni d’uso valgono nella misura in cui rispettano le norme costituzionali. Inoltre, il tribunale ha affermato che il carattere illecito di una associazione deve essere valutato in base alle leggi previste dal nostro ordinamento e non da una piattaforma social. A scanso di equivoci, preciso che la sentenza richiama anche la legge 645 del 1952 che vieta la ricostituzione del partito fascista e precisa che questa legge non vieta le organizzazioni neofasciste, a patto che il loro modo di operare non ricostituisca quel partito.

Le motivazioni della sentenza del Tribunale di Roma indicano il perimetro normativo all’interno del quale muoversi e stabiliscono un utile precedente che sostiene la proposta che ho appena formulato, a completamento della quale aggiungo che comunque le piattaforme avrebbero il compito di segnalare specifici contenuti secondo loro pericolosi per la libertà e per la democrazia a una istituzione del Paese in questione, da individuarsi all’atto della stesura dell’accordo. Questa previsione, come vedremo, è peraltro contenuta anche nella proposta del Digital Service Act della Commissione europea.

Ultima considerazione. Con un accordo di questo tipo, le piattaforme si sottrarrebbero anche all’accusa – per dirla in estrema sintesi – di pendere a sinistra. Con il tipo di accordo che ho ipotizzato, nessuno potrebbe più accusare i proprietari dei social di privilegiare il fronte progressista a scapito di quello conservatore.

 

Terza proposta. Tutela rafforzata per le testate registrate

Il 12 gennaio, nei giorni caldi del dibattito innestato dalla esclusione di Trump dai social, in Italia l’accesso all’account Twitter di Libero fu limitato per “motivi di sicurezza”. Questo intervento ha sollevato una forte levata di scudi: l’imprenditore Guido Crosetto il 13 gennaio su Libero ha parlato di “Twittatura in arrivo”. Azzurra Barbuto, giornalista di Libero, ha twittato: “Limitato l’account di Libero. La censura si allarga velocemente ai giornali che non si assoggettano al pensiero unico. Democrazia è pluralismo di voci, non intolleranza nei confronti delle voci avverse. Non stanno colpendo Libero, stanno minando le fondamenta della democrazia.” (@AzzurraBarbuto, 12 gennaio). Il fondatore della testata, Vittorio Feltri, ha giudicato l’episodio così: “Io ritengo che Twitter sia guidato da una banda di poveri ignoranti che non capiscono le parole, penso possano avere interpretato male alcuni interventi. Mi fa anche piacere sottolineare la loro ignoranza. Sono cose incredibili!“. E aggiunse: “Ma penso anche che Twitter abbia tutto il diritto di censurare, è un privato e i privati fanno quello che vogliono. C’è una ignoranza dominante e una stupidità senza freni che comanda. Libero come Trump!”.

Il 14 gennaio è stata tolta per ventiquattro ore da Play Store l’app del quotidiano Il Manifesto. Di “una censura gravissima e ingiustificata”, ha scritto Matteo Bartocci, direttore editoriale e responsabile delle edizioni digitali del quotidiano. Il giorno dopo l’app è tornata disponibile nello store e un portavoce di Google si è scusato, spiegando che ogni giorno migliaia di app su Play Store sono controllate per verificare che siano conformi alle regole e che, in questo caso, si era trattato di un errore.

Il 30 marzo Youtube ha chiuso definitivamente il canale ByoBlu. In base alle motivazioni fornite dall’azienda, questa azione si è resa necessaria in base agli impregni presi da Google con la Commissione UE per il contrato alla disinformazione in tema di Coronavirus. In tre mesi il canale Youtube Byoblu aveva ricevuto tre segnalazioni per aver veicolato contenuti disinformativi sul Covid.

Questi episodi hanno fatto notizia. Anche in questo caso, una possibile soluzione per evitare che si ripetano situazioni di questo tipo potrebbe essere quella di stabilire un accordo in forza del quale – nel caso di eventuali dubbi circa informazioni diffuse da testate giornalistiche regolarmente registrate – le piattaforme non possano agire direttamente, ma debbano segnalare all’Autorità della comunicazione del Paese della testata ciò che a loro avviso non funziona, senza fare alcun intervento di rimozione che non sia autorizzato dall’Autorità. Come nel caso dei rappresentanti delle istituzioni, ciò consentirebbe di predisporre una situazione win-win, nella quale tutti i soggetti sarebbero garantiti nelle loro libertà e nella conseguente responsabilità.

 

Tutto ciò premesso, rimane fondamentale che i proprietari e i manager delle piattaforme devono farsi carico di un di più di responsabilità. L’era digitale, questo tempo straordinario che ci è toccato vivere, proprio a motivo delle enormi possibilità che porta in sé ha bisogno di una maggiore responsabilizzazione da parte di tutti, a partire da chi ha in mano infrastrutture così importanti come le piattaforme social.

Sono convinto di questo da molti, molti anni e l’ho ripetuto in numerose circostanze, pubbliche e “private”. In un pranzo a inviti organizzato da Formiche il 10 gennaio 2019 con Pandu Nayak, Google Fellow & Vice President for Search, arrivato il mio turno di dialogare direttamente con l’ospite, gli chiesi: “Che cosa si prova a essere vicepresidente del mondo?”. A questa domanda feci seguire una breve riflessione sull’esercizio della responsabilità connessa al ruolo da lui rivestito e all’importanza di Google per la vita delle persone. Il mio interlocutore mostrò di capire il significato della mia domanda e parlò di come lui sentisse e vivesse questa responsabilità. L’aneddoto mi è utile per insistere su questo punto, perché sono convinto che il “fattore umano” sia decisivo. Il tema della presa d’atto da parte dei proprietari e dei gestori delle piattaforme delle loro responsabilità nei confronti della società, che deriva dal loro status di essere insieme azienda privata e servizio pubblico è cruciale. Non è solo un fatto di giustizia o di “bontà”. È anche un aspetto conveniente alle piattaforme stesse, perché toglierebbe di mezzo le polemiche e il conseguente danno d’immagine che ne deriva. Come mi disse nel 1995 un consigliere comunale di Milano, “ciò che è buono è anche utile”.

 

Infine, a ciascuno di noi cittadini tocca farci carico della nostra quota di responsabilità. Parafrasando il Vangelo di Giovanni, possiamo dire che si tratta di essere nei social senza essere dei social. Essi, al pari del resto della rete e dell’era digitale in generale, ci offrono delle opportunità straordinarie, mai avute prima nella storia dell’umanità. Verso quale meta indirizzare questa straordinarietà dipende dal buon uso della nostra libertà, che per essere esercitata al meglio ha bisogno di essere nutrita non solo di valori, ma anche di conoscenza e di consapevolezza. Dobbiamo vincere la pigrizia alla quale ci induce la comodità d’uso dei social, uscire dalla nostra comoda comfort zone e scegliere di stare nei social in modo avvertito.

Avere piena consapevolezza di come funziona il business model delle piattaforme è fondamentale per una presenza pienamente responsabile. Le grandi aziende digitali competono per catturare la nostra attenzione. Noi viviamo in questa economia dell’attenzione, ne siamo l’oggetto del desiderio e il meccanismo di funzionamento dei social è costruito per fare in modo di catturare la nostra attenzione, il nostro coinvolgimento (il famigerato engagement) perché questo produce dati (attraverso il nostro comportamento online) che consentono poi di vendere in modo estremamente mirato la pubblicità. Numerosi sono gli autori e le autrici (Lanier, Mozorov, Wallace, Zuboff, Lovink, Gaggi, Andreoli, Newport, Pavolini…) che hanno spiegato questo modello, gli stratagemmi psicologici (gratificazione, polarizzazione, ecc.) utilizzati per tenerci avvinti ai social, i pericoli che ne derivano per la nostra vita personale e relazionale. Sapere che corriamo il pericolo di essere manipolati e non avventurarci nella foresta social come Cappuccetto Rosso è una necessità. Vale per gli adulti come per i giovani e per i bambini, rispetto ai quali la prima forma di responsabilità consiste nel non mettere nelle loro mani una fuoriserie (lo smartphone) prima del tempo, addirittura dalle scuole elementari.

Nella parte finale del libro indico una serie di modi in cui ciascuno può (con)vivere nel miglior modo possibile con i giganti dei social, esercitando quel “potere dei senza potere” descritto da Vaclav Havel nel libro che porta questo titolo. Havel si interrogava sul rapporto tra l’uomo e il potere e sulla forza che può avere un “io” non de-moralizzato, cioè non rassegnato. Vale per la politica e anche per come possiamo stare nei social. Nessuna legge potrà mai renderci più gentili, più aperti all’ascolto, più curiosi, più misericordiosi, più intelligenti. Ogni regolamentazione sarà sempre insufficiente se non sarà accompagnata dalla consapevolezza e dalla responsabilità individuale, come afferma il decimo e ultimo punto del Manifesto “Fake News, dieci riflessioni per affrontare il problema”, presentato nel dicembre 2017 dal Digital Transformation Institute: “Una norma da sola non risolverà il problema. Servono prima di tutto cultura, educazione e consapevolezza negli utenti.” Non vi è altra strada che consenta di uscire dall’indignazione a intermittenza, moralistica e faziosa, e vivere nell’era digitale e della economia dell’attenzione limitando i pericoli e sfruttando al massimo le opportunità che essa offre.

ANTONINO PALMIERI

Parlamentare, laureato in filosofia e successivamente specializzato in comunicazione, ha lavorato per Poste Italiane, RAI, Mediaset. Esperto di comunicazione e di internet, Antonino Palmieri è responsabile della comunicazione elettorale e internet di Forza Italia.

Un suo emendamento alla finanziaria 2003 ha originato il percorso normativo che ha dato all’Italia le norme che regolano le università on line.

 

Share this article!
Share.

About Author

Leave A Reply