Il potere senza responsabilità dei social media nelle campagne elettorali

Sommario: 1. Il potere dei social media: controllo sugli utenti e sugli attori politici. – 2. La responsabilità dei social media tra disinformazione e facilitation dei contenuti. – 3. Le prospettive di regolamentazione.

  

  1. Il potere dei social media: controllo sugli utenti e sugli attori politici

La rivoluzione tecnologica permanente che ha riscritto le regole della società sotto innumerevoli profili individuali e relazionali ha portato con sé delle nuove sfide rispetto alle quali il diritto – come fenomeno sociale ontologicamente deputato alla tutela delle esigenze della collettività – non sempre ha saputo fornire adeguate risposte. La creazione di uno spazio virtuale senza confini, liberamente accessibile da chiunque, ha originato un nuovo centro di aggregazione di interessi che supera e rompe il modello statuale classico caratterizzato da territorio, popolo e sovranità.

Questo nuovo spazio giuridico, difatti, data la sua natura immateriale, è restio ad essere circoscritto entro i confini nazionali, così come i suoi fruitori non necessitano di alcun riconoscimento di uno status di cittadino. Ancor più dirompenti appaiono i riflessi sul piano dell’allocazione della sovranità, specialmente a fronte di una crescente funzione para-pubblicistica svolta dai giganti tecnologici: si manifesta, pertanto, la necessità di individuare adeguate forme di responsabilità, tanto per le azioni che sono ad essi immediatamente riconducibili, quanto per le attività che tramite le loro piattaforme vengono realizzate dai singoli utenti.

Proprio su questo punto di incontro e di scontro fra il vecchio mondo analogico ed il nuovo mondo digitale si attesta la questione dell’influenza dei social media sui processi elettorali e, ancor prima, del potere che viene da (o tramite) essi esercitato tanto sui singoli utenti quanto sugli attori politici.

Sotto il primo profilo vanno anzitutto richiamati alcuni dati socio-economici emblematici del ruolo assunto dai social nella considerazione dell’opinione pubblica: difatti, anche se oltre la metà degli italiani (59,1%) continua a utilizzare i telegiornali come fonte di informazione, il solo Facebook viene utilizzato per questo fine da più di un terzo del campione (31,4%)[1]. L’affidamento riposto dagli utenti nella piattaforma, unito alle basse percentuali di lettori di quotidiani cartacei (17,5%) o online (11,4%), è sintomatico di una società che rigetta in maniera sempre più vistosa i corpi intermedi, siano essi organi di informazione o partiti politici[2].

La tesi che raffigura una cornice favorevole alla fruizione delle informazioni acquisite a mezzo social viene ulteriormente suffragata dall’analisi di tre rilevanti elementi: political advertising, micro-targeting, social media algorithms.

La piattaforma di Facebook si è dimostrata un terreno particolarmente appetibile per le pubblicità di stampo politico: secondo il report fornito dall’azienda californiana, nel periodo che intercorre fra marzo e settembre 2019 – e che comprende, quindi, la campagna elettorale per il rinnovo del Parlamento europeo – in Italia sono state acquistate oltre 41.000 pubblicità per una spesa complessiva superiore ai 3 milioni di euro (solo in Germania e Spagna, fra i 27 membri dell’Unione Europea, si è speso di più)[3].

L’efficacia del massiccio investimento su contenuti pubblicitari viene amplificata dal ricorso ad avanzate tecniche di profilazione dell’utente nella sua veste di elettore. In maniera speculare alla progressiva assimilazione tra la presentazione dell’offerta politica e la commercializzazione di un nuovo prodotto, infatti, si registra una sovrapposizione fra elettore e consumatore[4]: le tracce che l’utente lascia in rete sui suoi gusti e le sue preferenze consentono all’inserzionista politico di indirizzargli un contenuto costruito ad hoc che, data la sua specificità, gode di maggiori possibilità di essere accolto dall’utente rispetto ad un messaggio generico destinato alla massa indistinta del corpo elettorale.

La capacità di penetrazione delle nuove modalità di proselitismo elettorale viene, infine, ulteriormente rafforzata dagli algoritmi che regolano i social network. L’obiettivo delle piattaforme è quello di trattenere gli utenti il più a lungo possibile su di esse, così da potergli offrire un maggior numero di contenuti sponsorizzati e, in un circolo di mutua alimentazione, da poter acquisire il maggior numero di dati. A tal fine l’algoritmo cerca di offrire un’esperienza web personalizzata nella quale l’utente possa trovare un ambiente confortevole: si realizza così l’effetto delle echo chambers, in cui all’utente viene offerta una continua conferma delle sue opinioni pregresse, portandolo ad assumere posizioni sempre più radicalizzate e meno aperte al confronto[5].

Acclarata la capacità di influenza dei social sulle modalità di formazione del convincimento dell’elettore, non meno problematica si prospetta l’analisi del potere che tali piattaforme possono esercitare sull’attività online dei gruppi politici.

La questione è affiorata con tutte le sue criticità a seguito dell’oscuramento, da parte di Facebook, delle pagine ricollegate a CasaPound Italia e a Forza Nuova e dei relativi amministratori[6]: a detta della società tecnologica, infatti, i soggetti coinvolti avrebbero violato le Condizioni d’Uso e gli Standard della Community nella parte in cui vietano espressamente le organizzazioni che incitano all’odio[7].

La mancanza di un chiaro quadro normativo di riferimento – non solo a livello sostanziale, ma anche sul piano processuale[8] – ha fatto emergere la contrapposizione fra le due tesi che si contendono il campo, come dimostrano gli esiti opposti dei ricorsi ex art. 700 c.p.c. presentati dai due gruppi politici.

Nell’ordinanza di accoglimento del ricorso di CasaPound il giudice ha sposato la tesi para-pubblicistica, evidenziando il ruolo assunto da Facebook «con riferimento all’attuazione di principi cardine essenziali dell’ordinamento come quello del pluralismo dei partiti politici (art. 49 Cost.), al punto che il soggetto che non è presente su F. è di fatto escluso (o fortemente limitato) dal dibattito politico italiano»[9].

La valorizzazione dei profili privatistici, invece, ha portato al rigetto del ricorso presentato da Forza Nuova, dal momento che, «pur svolgendo un’attività di indubbio rilievo sociale»[10], Facebook rimane un soggetto privato, onde per cui «il rapporto tra le parti in causa è regolato, oltre che dalla legge, anche dalle condizioni contrattuali alle quali la parte aderisce quando chiede di iscriversi al social network»[11].

L’oscillazione fra le due teorie antitetiche comporta evidenti riflessi sul versante della configurazione della responsabilità dei social in merito ai loro interventi lato sensu di censura.

Se si accogliesse la prospettiva privatistica, allora la suddetta attività delle piattaforme potrebbe essere contestata solo sotto il profilo della responsabilità da inadempimento, peraltro di difficile accertamento davanti ad una violazione, da parte dell’utente, delle condizioni contrattuali. Se si accentuasse il piano para-pubblicistico del servizio offerto dai social network, invece, i rimedi di diritto comune paleserebbero la loro inadeguatezza: si assisterebbe ad una rottura della dicotomia fra potere e responsabilità, atteso che, nell’attuale contesto, Facebook (al pari degli altri social) opera come “judge, jury and executioner” senza neppure dover rispettare dei basilari principi processuali come quelli della previa contestazione dell’addebito e della tutela del contraddittorio.

 

  1. La responsabilità dei social media tra disinformazione e facilitation dei contenuti

Lo snodo fondamentale del rapporto che lega le piattaforme social alle competizioni elettorali è plasticamente rappresentato dalla dilagante problematica della disinformazione online. La questione è rimasta a lungo sottotraccia, fino ad affacciarsi con vigore all’attenzione del dibattito politico solo a seguito del verificarsi di eventi dalla portata macroscopica quali la Brexit e l’affermazione di movimenti populistici.

La risposta sul piano giuridico si è registrata principalmente sul piano sovranazionale, come dimostra il grande numero di fonti che hanno cercato di tracciare i confini del problema o di avanzare dei rimedi alla sua diffusione.

In una prima Comunicazione[12] la Commissione Europea, dopo aver evidenziato l’incapacità dei social network di reagire all’«uso manipolativo delle loro infrastrutture» a fini disinformativi[13], ha individuato nella promozione della trasparenza, diversità e credibilità dell’informazione i possibili rimedi, adeguatamente suffragati da strumenti tecnici quali un vaglio più attento delle pubblicità a carattere politico e una completa identificazione degli inserzionisti.

Le aspettative della Commissione, ulteriormente ribadite in una successiva Raccomandazione[14] rivolta agli Stati membri e ai partiti politici, hanno trovato riscontro nell’adozione di un Codice di buone pratiche[15] – firmato dalle principali compagnie tecnologiche[16] – tramite il quale, seppur nella forma della soft regulation, l’Unione Europea ha cercato di regolamentare i doveri delle società firmatarie. Oltre ad una generica enunciazione di scopi, fra i quali si annovera anche quello di «permettere agli utenti di capire perché sono stati oggetto di un determinato messaggio pubblicitario di natura politica o di sensibilizzazione»[17], il Codice prevede numerosi impegni per i firmatari, come quelli di rendere le inserzioni pubblicitarie «chiaramente distinguibili dai contenuti editoriali, ivi comprese le notizie, indipendentemente dalla loro forma e dal supporto utilizzato»[18], di fornire l’indicazione dei promotori e degli importi versati per i contenuti sponsorizzati[19], di «aiutare le persone a prendere decisioni informate quando incappano in notizie online che potrebbero essere false, anche sostenendo gli sforzi intesi a sviluppare e attuare indicatori efficaci di affidabilità in collaborazione con l’ecosistema delle notizie»[20].

Pur rappresentando un importante progresso verso una completa regolamentazione della materia e, in modo specifico, dei compiti che le piattaforme social devono assolvere[21], nondimeno il Codice manifesta in maniera evidente i suoi limiti nella misura in cui lascia irrisolto il profilo della responsabilità dei social davanti alla propagazione della disinformazione.

Su questo fronte appare rilevante un recente studio richiesto dalla Commissione LIBE[22] del Parlamento europeo su disinformazione e propaganda[23]. Il documento traccia, anzitutto, una definizione degli operatori tecnologici coinvolti, proponendo di utilizzare il termine platform providers per identificare «those services that convey third-party content with value added services»[24], rispetto ai quali i social media sono soltanto una species del più ampio genus.

Il dibattito sulla responsabilità di questi soggetti dovrebbe essere risolto, secondo lo studio, in base al principio per cui non possono essere chiamati a rispondere per i contenuti creati dai loro utenti[25], sulla scorta di una responsabilità da posizione, ma solo per le attività di amministrazione su di essi, come quelle esemplificate nel Codice di buone pratiche. Questa peculiare gestione dei contenuti di creazione altrui suggerisce di superare la dicotomia fra «editorial responsibility» e «mediators’ distributory responsibility» in favore di una categoria intermedia identificata nella «facilitation»[26] dei contenuti: un’attività che, senza fermarsi al livello di mera intermediazione, non raggiunge comunque la pervasività di un controllo editoriale.

 

  1. Le prospettive di regolamentazione

L’intreccio fra competizioni elettorali e social media si inerpica, come si è cercato brevemente di dimostrare, su terreni impervi: hate speech, strumenti di disinformazione, abuso di inserzioni pubblicitarie a carattere politico. Il valore primario degli interessi coinvolti – su tutti, libertà di espressione e pluralismo politico – richiede un preciso intervento di regolamentazione, rispetto al quale gli attori pubblici e privati, pur concordi sotto il profilo dell’an, non sono riusciti a trovare una soluzione condivisibile sul quomodo. Si delineano, quindi, diverse possibili modalità di azione.

Una prima ipotesi è rappresentata dall’affidamento del compito all’autoregolamentazione delle società tecnologiche, le quali, in assenza di rigidi vincoli legislativi, potrebbero approntare soluzioni veloci ed efficaci di fronte ad un uso distorto delle proprie piattaforme. D’altro canto, il profilo strettamente tecnico non può essere considerato in maniera del tutto avulsa da quello del merito: seguendo tale strada si aprirebbero ampi spazi all’arbitrarietà dei social media sui contenuti cui dare accesso, con evidenti conseguenze sul rischio che il suddetto controllo possa essere guidato da interessi di parte[27].

Si potrebbe avanzare, quindi, la prospettiva di una regolazione dal lato pubblico, sul piano nazionale o sovranazionale. L’emanazione di una legislazione statale consentirebbe di affrontare in modo consono al complessivo quadro istituzionale quelle situazioni che, per la loro peculiarità, non sono suscettibili di regolazione secondo canoni generici: si pensi, nel contesto italiano, ai citati casi che hanno interessato l’attività di gruppi di ispirazione neofascista, attività che non può che essere analizzata alla luce del mosaico normativo composto (come minimo) dagli artt. 21, 49 e XII disp. fin.[28] della Costituzione. Gli strumenti di legislazione nazionale, però, pur potendo delimitare in maniera apprezzabile gli obblighi di intervento dei social nella lotta alla disinformazione[29], rischiano di rivelarsi inefficaci, sia perché non possono spiegare effetti al di fuori del territorio statale (a fronte della natura intrinsecamente aterritoriale delle piattaforme) sia per le misure predisposte nel caso di inottemperanza delle prescrizioni. Difatti, le sanzioni previste in Germania – fino a 50 milioni secondo il NetzDG – o in Italia – dove Facebook è stata destinataria di un’ingiunzione del Garante per la protezione dei dati personali per una somma pari a 1 milione di euro per il caso Cambridge Analytica e per il prodotto “Candidati”[30] – appaiono del tutto inadeguate a svolgere un effetto deterrente verso dei soggetti che godono di un’ingente disponibilità economica.

Alcune delle criticità riscontrabili sul livello nazionale della legislazione possono essere superate da un approccio di tipo sovranazionale: l’adozione di uno strumento quale un regolamento europeo sulla lotta alla disinformazione online, ad esempio, assicurerebbe una disciplina uniforme su tutto il territorio dell’Unione, segnando un passo in avanti nella tutela della vita digitale dei cittadini europei ulteriore rispetto a quanto già realizzato con l’adozione del GDPR. Proprio quest’ultimo testo dimostra, inoltre, la capacità delle istituzioni europee di adottare strumenti efficaci anche nei confronti dei colossi tecnologici, come conferma la previsione di sanzioni pecuniarie fino a 10 o 20 milioni di euro o, per le imprese, fino al 2% o al 4% del fatturato mondiale totale annuo dell’esercizio precedente, se superiore[31]. Peraltro, nemmeno la prospettiva sovranazionale appare esente da rischi di inefficacia dal punto di vista tecnico, atteso che l’opera di delimitazione della responsabilità dei social media «requires technological knowledge from the side of the legislator»[32].

I requisiti necessari per una regolamentazione funzionale, pertanto, appaiono ben delineati: efficacia dal punto di vista tecnico, garanzia delle peculiarità degli ordinamenti nazionali, applicabilità su scala continentale ed effettività delle sanzioni. A queste molteplici esigenze non sembra potersi rispondere se non adottando la prospettiva di una legislazione concordata fra Unione Europea e società tecnologiche, sulla scia del processo avviato con il Codice di buone pratiche ma col rafforzamento della vincolatività degli impegni. La condivisione del piano di azione fra attori pubblici e privati permetterebbe di relegare ad ipotesi residuali le sanzioni per equivalente, spesso adottate in maniera tardiva e, quindi, inutile, favorendo, invece, l’adozione di misure in forma specifica che garantirebbero delle risposte utili al contrasto alla disinformazione.

* Il presente contributo rappresenta una rielaborazione della relazione svolta in occasione del Convegno organizzato da ICON-S Italian Chapter su “Le nuove tecnologie e il futuro del diritto pubblico” (Firenze, 22-23 novembre 2019) all’interno del panel n. 5 intitolato “Potere senza responsabilità nella “democrazia” dei social media”, presieduto dal Prof. A. Saitta.

[1] I dati sono tratti dal 16° Rapporto Censis sulla comunicazione “I media e la costruzione dell’identità”.

[2] Sembra calzante, a tal proposito, l’analisi condotta da A. Baricco, The game, Torino, 2018, 77 sulla distruzione delle élite: «In un ambito che è largamente sopravvalutato, cioè la politica, l’attuale inclinazione degli elettori per una qualche forma di leaderismo populista che tende a saltare la mediazione dei partiti tradizionali, e in fondo anche dei ragionamenti, può dare un’idea particolarmente chiara del fenomeno».

[3] I dati sono tratti dal “Facebook report on the implementation of the Code of Practice for Disinformation. Annual Report. 2019”, sul quale v. amplius infra.

[4] Su tale problema v. L. Califano, Autodeterminazione vs. eterodeterminazione dell’elettore: voto, privacy e social network, in federalismi.it, 16, 2019, spec. 4 ss.

[5] Sui crescenti rischi di una bubble democracy v. G. Pitruzzella, La libertà di informazione nell’era di Internet, in questa Rivista, 1, 2018, spec. 41 ss. Gli effetti distorsivi prodotti dall’algoritmo di Facebook, quali «l’effetto gregge, il conformismo e le cascate informazionali» sono affrontati da G. Origgi, La democrazia può sopravvivere a Facebook? Egualitarismo epistemico, vulnerabilità cognitiva e nuove tecnologie, in Ragion Pratica, 51, 2018, 452.

[6] Le due vicende processuali sono analizzate da P. Zicchittu, I movimenti “antisistema” nell’agorà digitale: alcune tendenze recenti, in giurcost.org., 2020.

[7] In particolare al punto I.2 e al punto III.13 degli Standard.

[8] Sembra emblematico, a tal proposito, il fatto che, nonostante i due procedimenti presentassero caratteri omogenei, il ricorso presentato da CasaPound è stato incardinato presso la Sezione specializzata in materia di impresa del Tribunale di Roma, mentre quello depositato da Forza Nuova è stato trattato da una diversa sezione (diritti della persona e immigrazione civile) della medesima autorità giudiziaria.

[9] Trib. Roma, ord. 12 dicembre 2019, § 3 delle motivazioni.

[10] Trib. Roma, ord. del 23/02/2020, § 2 delle ragioni in diritto.

[11] Il giudice arriva alla conclusione per cui, sulla scorta di fonti internazionali e sovranazionali, grava su Facebook un obbligo di controllo sui contenuti veicolati tramite la propria piattaforma che possano rappresentare fenomeni di hate speech. Sul tema, che in parte esula dalle finalità del presente intervento, si rinvia al Codice di condotta per lottare contro le forme illegali di incitamento all’odio online approntato dalla Commissione Europea nel 2016 e sottoscritto, fra gli altri, anche da Facebook.

[12] Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni. Contrastare la disinformazione online: un approccio europeo, del 26 aprile 2018.

[13] «Per disinformazione si intende un’informazione rivelatasi falsa o fuorviante concepita, presentata e diffusa a scopo di lucro o per ingannare intenzionalmente il pubblico, e che può arrecare un pregiudizio pubblico», ivi, 4.

[14] Commission Reccomendation on election cooperation networks, online transparency, protection against cybersecurity

incidents and fighting disinformation campaigns in the context of elections to the European Parliament, del 12 settembre 2018.

[15] Codice di buone pratiche dell’UE sulla disinformazione, del 26 settembre 2018

[16] È stato sottoscritto da Facebook, Google, Microsoft, Mozilla, Twitter.

[17] Punto I, VIII del Codice.

[18] Punto II.B, 2 del Codice.

[19] Punto II.B, 3 del Codice.

[20] Punto II.D, 7 del Codice.

[21] Si segnala, fra l’altro, che il Codice introduce per i firmatari l’obbligo di pubblicare un report annuale sulle azioni intraprese nella lotta alla disinformazione. I report sono consultabili all’indirizzo ec.europa.eu.

[22] Commissione per le libertà civili, la giustizia e gli affari interni.

[23] Disinformation and propaganda – impact on the functioning of the rule of law in the EU and its Member States, 2019.

[24] Ivi, 80.

[25] Come, ad esempio, i post di Forza Nuova nel caso sopra esaminato.

[26] Disinformation and propaganda, cit., 87.

[27] Il rischio è ben rappresentato in Disinformation and propaganda, cit., spec. 87, dove si sconsiglia l’opzione di affidare ai platform providers la possibilità di controllare i contenuti o di deciderne la natura, non potendosi escludere che «at any time, a competing platform could emerge that would – either openly or covertly – represent a particular ideology».

[28] Nel dibattito che di recente ha animato la dottrina su quest’ultima norma v., ex multis, B. Pezzini, Il divieto di ricostituzione del partito fascista nella XII disposizione finale, in M. D’Amico – A. De Francesco – C Siccardi (a cura di), L’Italia ai tempi del ventennio fascista. A ottant’anni dalle leggi ebraiche: tra storia e diritto, Milano, 2019, 205 ss. e G.E. Vigevani, Origine e attualità del dibattito sulla XII disposizione finale della Costituzione: i limiti della tutela della democrazia, in questa Rivista, 1, 2019, 25 ss.

[29] La legge tedesca “Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken” prescrive un obbligo di rimozione dei contenuti manifestamente illegali in un termine di 24 ore o di 7 giorni a seconda dei casi. Per un commento della legge v. V. Claussen, Fighting hate speech and fake news. The Network Enforcement Act (NetzDG) in Germany in the context of European legislation, in questa Rivista, 3, 2018, 110 ss.

[30] Cfr. ordinanza ingiunzione nei confronti di Facebook Ireland Ltd e Facebook Italy s.r.l. del 14 giugno 2019.

[31] Art. 83, cc. 4, 5 e 6.

[32] Disinformation and propaganda, cit., 83.

Share this article!

Share.