Il contrasto europeo all’hate speech online: quali prospettive future?

0

Il mese di dicembre 2020 ha visto la pubblicazione da parte della Commissione europea dello European Democracy Action Plan (EDAP) e del Digital Services Act (DSA), i quali costituiscono un punto di svolta nella disciplina europea del mercato dell’informazione digitale. Pur nella consapevolezza del ben più ampio respiro dei due atti, il presente commento vuole porre in evidenza gli interessanti spunti di riflessione da essi offerti in merito ai potenziali scenari futuri della lotta al fenomeno dell’hate speech digitale. Sul punto dei “discorsi d’odio”, entrambi i documenti sembrano infatti muoversi nella direzione di un maggior rigore sotto due profili. Il primo profilo, su cui si concentra l’EDAP, si riflette nel progetto di estendere il raggio d’azione della criminalizzazione dei fenomeni d’odio a livello euro-unitario. Il secondo profilo, oggetto specifico della riforma proposta dal DSA, è invece quello relativo a una maggiore responsabilizzazione dei provider di servizi di intermediazione online.

Sotto il primo profilo, occorre sottolineare come, sin dai suoi esordi, la Commissione guidata da Ursula von der Leyen abbia dimostrato una marcata attenzione nei confronti dei potenziali rischi connaturati alla diffusione di Internet. Nel 2019[1], l’allora candidata alla presidenza della Commissione già prevedeva la necessità, da un lato, di sostenere il progresso delle piattaforme digitali e, dall’altro lato, di proteggere la democrazia europea da pericoli quali la disinformazione e i messaggi d’odio in rete. La Comunicazione della Commissione europea “sul piano d’azione per la democrazia europea”[2], pubblicata lo scorso 3 dicembre, propone in effetti una vasta gamma di proposte e iniziative dirette a promuovere un più salubre ambiente digitale e informativo. In particolare, al fine di incoraggiare una più ampia ed eguale partecipazione democratica, l’EDAP prevede espressamente l’intenzione di compiere ulteriori sforzi nella lotta contro le fattispecie di hate speech digitale. Secondo il documento, la presenza in internet di forme di incitamento all’odio ha infatti l’effetto di dissuadere le minoranze da esse colpite dall’esprimere le loro opinioni in rete e dal partecipare al discorso pubblico[3].

In quest’ottica, la Commissione non solo prevede di persistere nei lavori di implementazione del Code of Conduct del 2016[4], ma intende altresì proporre nel corso del 2021 una modifica all’art. 83, par. 1), del Trattato sul Funzionamento dell’Unione Europea (TFUE). La norma prevede che, con riferimento a un numerus clausus di sfere di criminalità particolarmente gravi e aventi un carattere di transnazionalità, Parlamento e Consiglio possano deliberare, mediante adozione di una direttiva, norme minime intorno alla definizione dei reati e delle sanzioni. La modifica proposta dalla Commissione andrebbe a includere nel novero di tali “reati dell’Unione Europea” anche i crimini d’odio e l’incitamento all’odio. In realtà, un tentativo di armonizzazione delle legislazioni statali in materia si era già avuto, prima dell’entrata in vigore del Trattato di Lisbona, con la Decisione Quadro 2008/913/GAI del Consiglio[5]. Tale atto, tuttavia, fondandosi sull’allora art. 29 del Trattato dell’Unione Europea (TUE), si limitava di fatto a considerare soltanto i fenomeni di odio di stampo etnico-razziale e religioso. La modifica all’art. 83, par. 1), TFUE, d’altro canto, non solo garantirebbe, dal punto di vista formale, un più esplicito (e solido) appiglio normativo a livello di diritto primario, ma, da un punto di vista più squisitamente sostanziale, consentirebbe altresì alla Commissione di avanzare proposte di tutela estese a nuove e diverse categorie protette. Infatti, a differenza del vecchio art. 29 TUE, il quale considerava soltanto razzismo e xenofobia quali elementi estranei allo spazio di libertà, sicurezza e giustizia dell’Unione, il testo del nuovo art. 81, par. 3), risulterebbe aperto a ogni forma e tipologie di discriminazione. Una chiara conferma di tale interpretazione perviene dalla Commissione la quale, nella sua recente Comunicazione relativa alla “strategia per l’eguaglianza delle persone LGBTIQ”[6], individua nella modifica al TFUE il primo step fondamentale per tutelare tali persone da crimini e discorsi d’odio a livello europeo[7].

Sotto il diverso profilo di una maggiore responsabilizzazione dei provider, come si è accennato sopra, il documento di rilievo è invece costituito dal DSA, considerato del resto dallo stesso EDAP uno strumento essenziale alla lotta contro l’hate speech. In realtà, come esplicitato nell’explanatory memorandum della Commissione, lo scopo del DSA è introdurre una riforma “orizzontale” della disciplina della responsabilità dei provider di servizi di intermediazione digitale: l’articolato, pertanto, si occupa generalmente di contenuti illeciti (illegal). Con riferimento a tali contenuti il DSA, pur confermando in linea generale il regime di responsabilità limitata già delineato dalla direttiva 2000/31/CE[8] per i servizi di mere conduit, caching e hosting (artt. 3-5), mira a introdurre una serie di obblighi aggiuntivi in capo ai provider. Tali obblighi sono distribuiti su quattro “livelli”. A un primo livello, il DSA stabilisce obblighi comuni a tutti i fornitori di servizi di intermediazione digitale, senza distinzione alcuna sulla base della tipologia del servizio fornito né della dimensione. Il secondo e il terzo livello prevedono incombenze a carico, rispettivamente, dei fornitori di servizi di hosting (hosting provider) e delle c.d. “piattaforme online”: queste ultime costituiscono una sottocategoria dei primi, rispetto ai quali si caratterizzano perché, oltre a ospitare i contenuti prodotti dagli utenti, li disseminano altresì al pubblico (art. 2, lett. h)). Il quarto livello si riferisce infine alle “very large online platforms”, ovverosia a quelle piattaforme online che forniscono mensilmente i propri servizi ad almeno 45 milioni di utenti mediamente attivi e residenti nell’Unione Europea (art. 25, par. 1)).

Nello specifico, ai fini di contrastare la diffusione in rete dei discorsi d’odio, così come degli altri contenuti illeciti, il DSA prevede esplicitamente che tutti i fornitori di servizi di hosting predispongano adeguate procedure di “notice and action” (art. 14)[9]. Le segnalazioni pervenute dovranno essere processate in maniera tempestiva, diligente e imparziale; la decisione dovrà poi essere notificata senza ritardo al soggetto che abbia provveduto alla segnalazione, insieme alle ragioni che l’hanno determinata. L’art. 14, par. 3), specifica che, una volta avvenuta la segnalazione, si presume che il provider sia a conoscenza del contenuto potenzialmente illecito: ciò determina, ai sensi dell’art. 5, par. 1), lett. b), una decadenza del regime di responsabilità limitata previsto in via generale e, conseguentemente, l’irrogazione di una sanzione in caso di mancato intervento. Ulteriori e più puntuali doveri sono poi previsti a carico delle “very large online platforms”, le quali, ai sensi dell’art. 26, sarebbero tenute a effettuare annualmente una ricognizione dei principali rischi derivanti dalla diffusione e dall’utilizzo dei loro servizi in Unione Europea (risk assessment) e a predisporre misure di mitigazione ragionevoli, proporzionali ed efficaci di mitigazione (art. 27).

La previsione di siffatti obblighi a carico dei fornitori di servizi di intermediazione digitale, unita tra l’altro a un’eventuale espansione dello spettro dei discorsi d’odio criminalizzati a livello europeo, pone tuttavia il sensibile rischio di una censura collaterale[10] di contenuti di per sé perfettamente leciti. In caso di situazione dubbia l’hosting provider, mosso da interessi prevalentemente privati, predilige generalmente la via della rimozione o della disabilitazione del servizio pur di evitare il rischio della sanzione; ciò, evidentemente, a discapito della libertà di espressione e informazione. Si tratta, questo, di un rischio invero piuttosto elevato, soprattutto laddove si consideri che, come ampiamente rilevato dalla dottrina e dalla giurisprudenza nazionali e internazionali, la qualificazione di un determinato materiale quale hate speech presuppone un’attenta ricostruzione del contesto storico, geografico, politico e fattuale in cui la specifica manifestazione di pensiero sia stata espressa[11]. A fronte della vasta gamma di variabili da tenere in considerazione, risulta inevitabile l’insorgenza di una casistica sovente complessa e di difficile categorizzazione, la quale rende assolutamente concreto il pericolo di una censura collaterale. La scelta di affidare un così delicato giudizio a enti privati, quali sono per l’appunto gli hosting provider, risulta pertanto essere particolarmente preoccupante sotto il profilo della tutela costituzionale della libertà di espressione.

Questi timori sono rafforzati dal rilievo che, a fronte dell’elevato numero di utenti e di contenuti diffusi in rete quotidianamente, le piattaforme online facciano ricorso in misura sempre più massiccia a sistemi di moderazione automatica. Se l’intelligenza artificiale si è rivelata negli ultimi anni uno strumento sempre più efficace, preciso e avanzato nella rilevazione di materiale illecito, gli algoritmi adottati si fondano tuttavia su metodi meramente probabilistici, cosicché la letteratura ha ripetutamente rilevato l’impossibilità di evitare la commissione di errori[12]. Nel caso in cui il sistema di moderazione automatico abbia per oggetto fattispecie di hate speech, la situazione sovente si complica ulteriormente. Considerato il ruolo centrale del contesto nell’individuazione di tale tipologia di contenuto illecito, il filtraggio richiede in questi casi l’implementazione di un apparato particolarmente articolato e sofisticato di sistemi di intelligenza artificiale e machine learning. Tali strumenti, da un lato, dovranno essere adeguatamente “allenati” con dataset privi di bias involontari e, dall’altro lato, dovranno essere capaci non solo di comprendere, sintatticamente e semanticamente, il significato sotteso a un testo, a un’immagine, a un audio o a un video, ma anche di tenere in adeguata considerazione tutti gli elementi di contorno. In sostanza, ciò equivale ad estendere lo spettro di analisi dei sistemi computazionali ai c.d. “metadati”, ovverosia a quei dati che “accompagnano” uno specifico contenuto.

Consapevole di questi rischi, la Commissione europea ha inserito nel DSA alcuni anticorpi volti a mitigare l’impatto delle nuove misure sui diritti fondamentali degli utenti della rete. Le soluzioni individuate ruotano essenzialmente intorno a due esigenze: in primo luogo, l’assicurazione di un adeguato livello di trasparenza da parte dei provider; in secondo luogo, la predisposizione di opportune garanzie procedurali a favore degli utenti. Sotto il primo profilo, il DSA prevede che tutti i provider forniscano agli utenti adeguate informazioni relative ai termini e alle condizioni di utilizzo, ivi inclusa l’indicazione dell’eventuale implementazione di sistemi di moderazione automatica (art. 12). Al tempo stesso, è prevista la pubblicazione almeno una volta l’anno di report dettagliati relativi all’attività di rilevazione, identificazione e rimozione di contenuti illeciti (art. 13). Gli artt. 23 e 33 prevedono ulteriori obblighi di trasparenza a carico, rispettivamente, delle piattaforme online in generale e delle very large online platforms nello specifico.

Sotto il secondo profilo, ancor più rilevante, il DSA introduce una serie di misure atte a garantire agli utenti della rete un seppur embrionale “diritto alla difesa”. La proposta di regolamento prevede innanzitutto che gli hosting provider, qualora optino per la rimozione di un contenuto o per la disabilitazione di un servizio, debbano informare l’utente, oltre che dei possibili mezzi di reclamo, anche delle ragioni che hanno portato alla decisione stessa, ivi inclusa l’indicazione dell’eventuale utilizzo di sistemi automatici (art. 15). Le informazioni devono essere chiare, facilmente comprensibili e il più possibile specifiche e precise ai fini di fornire l’utente degli strumenti necessari a un fruttuoso esperimento dell’eventuale reclamo. Emerge infatti dalla lettera della norma l’ulteriore obbligo di predisporre un sistema di revisione delle decisioni su richiesta del diretto interessato. L’art. 17 prevede che le piattaforme online si dotino di un efficiente sistema interno di gestione dei reclami cui gli utenti possano accedere gratuitamente attraverso un’interfaccia digitale, semplice e user-friendly. Per espressa previsione del DSA, inoltre, le decisioni adottate al termine della procedura di cui all’art. 17 non potranno essere affidate in toto a sistemi di decisione automatica: tale specificazione appare quanto mai opportuna laddove si consideri l’inevitabile margine di errore connesso all’utilizzo di tali sistemi. Per di più, la decisione “di secondo grado” presa ai sensi dell’art. 17 può essere a sua volta soggetta a doglianza innanzi a un soggetto terzo. Si prevede infatti espressamente che all’internauta sia data facoltà di agire in via stragiudiziale innanzi a enti certificati dal Digital Services Coordinator[13] (art. 18): tali ricorsi dovranno essere garantiti agli utenti a prezzi ragionevoli e comunque non eccedenti i costi connessi alla procedura. Viene comunque fatta salva la possibilità di adire i tribunali nazionali.

L’impianto che deriva dai due documenti, EDAP e DSA, sembra dunque essere orientato da due considerazioni. Da un lato, il fenomeno dei discorsi d’odio è al centro di un rinnovato e accresciuto interesse della Commissione. Quest’ultima si è mostrata consapevole dell’insufficienza del vecchio apparato normativo a porre un freno alla diffusione di contenuti illeciti su internet e della necessità di adottare un approccio transnazionale e unitario al problema dell’hate speech, il quale consideri il ruolo di primo piano ricoperto dai provider. Dall’altro lato, la Commissione riconosce il rischio che questo rinnovato rigore finisca per scaricare il peso delle nuove imposizioni non tanto sui provider quanto, piuttosto, sugli individui utenti della rete. Da ciò deriva la scelta di incorporare all’interno della nuova strategia un articolato armamentario a favore della tutela dei diritti individuali. Invero, tale orientamento sembra in qualche modo avviare un vero e proprio progetto di costituzionalismo digitale europeo[14] e accogliere l’istanza, da tempo proposta dalla dottrina, di introdurre una forma seppur elementare di “due process of the law” a favore degli internauti[15].

[1] Si veda U. Von der Leyen, A Union that strives for more: My agenda for Europe. Political Guidelines for the Next European Commission 2019-2024, in ec.europa.eu, 16 luglio 2019.

[2] Commissione Europea, Comunicazione COM(2020)790,  “Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni sul piano d’azione per la democrazia europea”, 3 dicembre 2020.

[3] Ivi, 12.

[4] Commissione Europea, “Codice di condotta per lottare contro le forme illegali di incitamento all’odio online”, 31 maggio 2016.

[5] Decisione quadro 2008/913/GAI del Consiglio del 28 novembre 2008 sulla lotta contro talune forme ed espressioni di razzismo e xenofobia mediante il diritto penale.

[6] Commissione europea, Comunicazione COM(2020)698,  “Comunicazione della Commissione al Parlamento uropeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni. Unione dell’uguaglianza: strategia per l’uguaglianza LGBTIQ 2020-2025”, 12 novembre 2020.

[7] Proprio sulla scia di tale constatazione, appare evidente che la proposta di modifica all’art. 83, par. 1), TFUE potrebbe dover fare i conti con l’opposizione politica di alcuni Stati membri, quali ad esempio Polonia e Ungheria, che hanno dimostrato negli ultimi anni una crescente insofferenza nei confronti delle minoranze LGBTQIA+.

[8] Direttiva 2000/31/CE del Parlamento europeo e del Consiglio dell’8 giugno 2000 relativa a taluni aspetti giuridici dei servizi della società dell’informazione, in particolare il commercio elettronico, nel mercato interno («Direttiva sul commercio elettronico»).

[9] L’art. 19 del DSA prevede che le piattaforme online garantiscano una vera e propria corsia preferenziale ai “trusted flaggers”, ovverosia a enti certificati dal Digital Services Coordinator come virtuosi e, pertanto, “degni di fiducia”.

[10] J. Balkin, Free Speech and Hostile Environments, in Columbia Law Review, 99-8, 1999, 2298.

[11] Sul punto, si veda M. Castellaneta, Discriminazione razziale e propaganda, obblighi di valutazione del contesto e critica politica tra diritto interno e diritto internazionale, in Medialaws, 3, 2020, 245 ss.

[12] In particolare, si è rilevato che, quando si implementi un sistema di moderazione automatico, a una riduzione dei falsi negativi (contenuti illeciti erroneamente riconosciuti come leciti) corrisponda sempre un aumento dei falsi positivi (contenuti leciti erroneamente riconosciuti come illeciti) Cfr.: T. Winchcomb, Use of AI in online content moderation, in cambridgeconsultants.com, 18 luglio 2019; G. Sartor – A. Loreggia, The impact of algorithms for online content filtering moderation: “Upload filters”, in europarl.europa.eu , 15 settembre 2020,.

[13] Il DSA prevede l’individuazione da parte di ogni Stato membro di un’autorità nazionale espressamente deputata a vigilare sulla corretta applicazione del nuovo regolamento: il Digital Services Coordinator, per l’appunto.

[14] Cfr. G. De Gregorio – O. Pollicino, L’alba di nuove responsabilità sulle piattaforme digitali: il Digital Services Act, in agendadigitale.eu, 15 dicembre 2020; N. Suzor, Digital Constitutionalism: Using the Rule of Law to Evaluate the Legitimacy of Governance by Platforms, in Social Media + Society, 4-3, 2018, 1 ss.; G. De Gregorio, The Rise of Digital Constitutionalism in the European Union, in papers.ssrn.com, 10 gennaio 2020; G. De Gregorio, Democratising online content moderation: A constitutional framework, in Computer Law & Security Review, 36, 2020.

[15] Si veda, ex multis, B. Bukovská, The European Commission’s Code of Conduct for Countering Illegal Hate Speech Online. An analysis of freedom of expression implications, in ivir.nl, 7 maggio 2019.

Share this article!
Share.

About Author

Leave A Reply