Piattaforme digitali e moderazione dei contenuti d’odio: nodi giuridici e pratici

0
  1. Introduzione

 

La recente pandemia di COVID-19 e il conseguente massiccio incremento nell’utilizzo di Internet hanno determinato un rinvigorirsi del dibattito relativo alla moderazione dei contenuti in rete. Emblematica, in tal senso, è stata la polemica relativa al ruolo dell’ex presidente degli Stati Uniti, Donald Trump, nell’assalto al Campidoglio dell’8 gennaio 2021, accusa che ha portato lo stesso Trump a essere sospeso e/o bannato da tutti i maggiori social network[1]. L’evento ha posto in luce la necessità di porre al centro della discussione pubblica e accademica il dilemma di come garantire, da un lato, la creazione di uno spazio digitale scevro di contenuti potenzialmente dannosi e, dall’altro lato, la tutela di diritti e libertà fondamentali, quale quella di espressione, su Internet.

Particolare preoccupazione ha suscitato e suscita la diffusione in rete di forme di discorsi d’odio (c.d. hate speech), tanto che, nel maggio 2020, il Segretario Generale dell’ONU António Guterres ha promosso un accorato appello su scala globale rivolto a contrastare quello che è stato da lui stesso definito un “virus dell’odio”. Nel suo intervento, il Segretario Generale menziona esplicitamente i social media, da lui invitati a un maggiore impegno nell’individuazione e rimozione di contenuti razzisti, misogini o comunque dannosi[2].

Il tema della moderazione dell’hate speech digitale offre numerosi spunti di riflessione. Il presente contributo mira, pertanto, a individuare alcuni dei nodi problematici che dovranno essere affrontati nell’imminente futuro dalla ricerca e dalla politica legislativa.

 

  1. L’hate speech nella società algoritmica: aspetti definitori e termini del problema

 

L’espressione “hate speech” si affermò negli Stati Uniti sin dagli anni ’80 del secolo scorso[3], grazie soprattutto al lavoro di ricerca portato avanti da esponenti della critical race theory quali Mari J. Matsuda e Richard Delgado[4]. Nei decenni successivi, la locuzione raggiunse e iniziò gradualmente ad estendersi in Europa. Alla fine degli anni ’90, in particolare, essa entrò nel vocabolario corrente del Consiglio d’Europa attraverso la Raccomandazione del Comitato dei Ministri n. CM/Rec(97)20[5]. Venne in seguito adottata per la prima volta dalla Corte EDU in quattro sentenze pronunciate l’8 luglio 1999 e concernenti le tese relazioni intercorrenti tra il governo turco e il Partito dei Lavoratori del Kurdistan[6]. In Italia, i “discorsi d’odio” o “linguaggi dell’odio” fecero il proprio ingresso nel dibattito pubblico a partire dalla seconda metà degli anni 2000[7].

Nonostante il tema sia stato oggetto di ampia riflessione sia nel dibattito pubblico sia nel dibattito dottrinale-accademico, l’esatta delimitazione semantica del termine “hate speech” appare ancora oggi piuttosto fumosa. Alexander Brown ha sottolineato come la formula assuma, anche nel discorso giuridico, contenuti e connotati tutt’altro che univoci: in realtà, essa ricomprende un’intera famiglia di significati particolari e variabili[8].

Un’opera di sistematizzazione e di chiarificazione terminologica appare quanto mai fondamentale a fronte delle crescenti spinte nazionali[9] ed euro-unitarie[10] a una maggiore regolamentazione dell’odio in rete. Nella prospettiva di una maggiore responsabilizzazione delle piattaforme nel contrasto all’hate speech, è necessario determinare preliminarmente quali siano le varie forme espressive ivi ricomprese, al fine di contenere un’attività di moderazione dei contenuti confusa e bulimica. Occorre, inoltre, meglio delineare le relazioni tra i discorsi d’odio in senso stretto e fenomeni connessi ma distinti quale, per esempio, l’istigazione al terrorismo.

Ai fini di una più attenta riflessione sui termini giuridici del problema, un punto di partenza privilegiato sembra essere la definizione proposta dalla Commissione Europea contro il Razzismo e l’Intolleranza (ECRI) nella sua General Policy Recommendation No. 15 on Combating Hate Speech:

Hate speech for the purpose of the Recommendation entails the use of one or more particular forms of expression – namely, the advocacy, promotion or incitement of the denigration, hatred or vilification of a person or group of persons, as well any harassment, insult, negative stereotyping, stigmatization or threat of such person or persons and any justification of all these forms of expression – that is based on a non-exhaustive list of personal characteristics or status that includes “race”, colour, language, religion or belief, nationality or national or ethnic origin, as well as descent, age, disability, sex, gender, gender identity and sexual orientation[11].

Fissato il perimetro del concetto di hate speech e delimitate le categorie di forme espressive ad esso ascrivibili, il secondo nodo problematico a richiedere una rinnovata riflessione sul piano accademico e politico è quello relativo alle ragioni sottese all’implementazione di una disciplina di contrasto ai discorsi d’odio.

La questione non è nuova ed è, anzi, stata al centro di ampio dibattito a partire dalla seconda metà del secolo scorso. Essa, come noto, ha visto l’opposizione di due approcci tra loro contrapposti. Vi è da un lato il modello “statunitense”, fedele all’interpretazione che il giudice Oliver W. Holmes diede del Primo Emendamento nel 1919[12] e che qualifica il free speech come un diritto assoluto non comprimibile attraverso forme di regolazione content-based[13]. Dall’altro lato, il modello “europeo” considera la libertà di espressione onerata da “doveri e responsabilità” e, pertanto, potenzialmente soggetta a formalità, condizioni, restrizioni o sanzioni (art. 10, par. 2, CEDU): in particolare, fronte della risalente e ben nota metafora americana che identifica nel dibattito pubblico un marketplace of ideas, le giurisdizioni europee e la giurisprudenza della Corte EDU si sono dimostrate aperte alla scelta di sanzionare anche penalmente le fattispecie di hate speech, percepite quali lesive dei diritti e della dignità dei gruppi colpiti[14].

Nonostante l’ampia letteratura sul punto, il dibattito è ancora lungi dall’essersi esaurito. Esso, anzi, è oggi rinnovato dalla necessità di confrontarsi con le nuove forme digitali della comunicazione e dell’informazione. Nel contesto di oggi, l’informazione viaggia per lo più su Internet ed è sempre più appannaggio dei social network e/o dei motori di ricerca i quali, peraltro, tendono a suggerire o restituire agli user contenuti sovente faziosi. Come magistralmente posto in luce da Cass R. Sunstein, Internet tende a restituirci un’informazione incentrata sul “Daily Me” e, rispetto alle tradizionali forme dei mass media, riduce la possibilità di incontro (e scontro) tra punti di vista differenti. In tal modo, la rete alimenta la polarizzazione del dibattito e l’estremizzazione delle ideologie[15]. Non solo: gli studi di Safiya U. Noble hanno altresì illustrato come il ranking dei risultati proposti dai principali motori di ricerca, Google in primis, tenda a rispecchiare e confermare le tradizionali gerarchie etnico-razziali e sessuali, nonché a confermare stereotipi e modelli di oppressione delle minoranze[16]. A fronte di tali rilievi, la metafora del free speech quale libero mercato delle idee, all’interno del quale è destinato a sopravvivere e permanere il pensiero “migliore”, acquista nuove e inedite prospettive[17].

Occorre, inoltre, sottolineare un ulteriore punto: l’hate speech ai tempi dei social media e dell’informazione digitale si fonda in misura sempre maggiore sull’esponenziale diffusione delle c.d. “fake news”. Il complesso fenomeno delle “bufale” in Internet ha fatto il suo ingresso nel dibattito politico-accademico soprattutto a seguito dell’osservato utilizzo, in anni recenti, degli strumenti della misinformazione e della disinformazione per ingerirsi nel processo di partecipazione democratica[18].

Le fake news, d’altro canto, possono costituire un vettore per la diffusione di stereotipi e false accuse ai danni di particolari gruppi della popolazione, con conseguenze potenzialmente drammatiche. Il 17 giugno 2015, a Charleston, un ventunenne di nome Dylan “Storm” Roof aprì il fuoco nel corso di una funzione religiosa presso la chiesa Emanuel Africana Metodista Episcopale, causando la morte di nove persone. Successivamente, all’attentatore venne ricondotto un manifesto ove lo stesso Roof dichiarava di aver ricercato su Google la query black on white crime”. In cima alla ranking list, Roof aveva trovato la pagina del Council of Conservative Citizens (CCC), ovverosia di un aggressivo gruppo suprematista bianco che forniva dati parziali, inaccurati e faziosi sul quantitativo di reati posti in essere dagli Afro-americani contro i bianchi. La lettura di questi dati erronei contribuì, secondo quanto emerge dal manifesto, alla radicalizzazione del pensiero di Roof, portandolo infine a compiere il massacro di Charleston[19]. Più recentemente, lo scoppio della pandemia di COVID-19 nella primavera del 2020, oltre ad aver determinato un’ondata sinofobica su scala globale, ha altresì causato il diffondersi in India e nel Regno Unito di vere e proprie bufale che, accusando la comunità islamica di essere la causa della diffusione del virus, hanno causato vari episodi di islamofobia nei due Paesi[20].

 

  1. Il ruolo degli intermediari digitali e i limiti della moderazione automatica

 

Le istituzioni nazionali ed europee hanno reagito alle nuove sfide affermando con sempre maggior fermezza una responsabilità delle piattaforme nella diffusione di contenuti illeciti. Con riferimento all’hate speech, risale al 2016 il primo tentativo dell’Unione Europea di includere attivamente alcune delle maggiori aziende Hi-tech nella lotta al fenomeno attraverso la stipulazione su base volontaria di un Codice di Condotta, il quale rappresenta a tutti gli effetti un modello di self-regulation. Firmato inizialmente da Facebook, Microsoft, Twitter e YouTube, il Codice ha successivamente visto l’adesione altresì di Instagram, Snapchat e Dailymotion nel 2018, nonché di Jeuxvideo.com nel 2019 e di TikTok nel settembre 2020[21]. Diverso rispetto è l’approccio incarnato dalla legge tedesca nota come NetzDG (o Network Enforcement Act). Il testo prevede, in capo ai social network aventi tra i propri iscritti almeno due milioni di utenti residenti in Germania, l’obbligo di dotarsi di un adeguato sistema di notice and take down di contenuti illeciti (ivi incluse fattispecie riconducibili all’hate speech), nonché una serie di obblighi di trasparenza[22]. Più recentemente, una riforma orizzontale della disciplina europea in materia di responsabilità delle piattaforme per diffusione di contenuti illeciti è stata avanzata dalla Commissione Europea con la presentazione della proposta del Digital Services Act[23].

La crescente responsabilizzazione degli intermediari digitali, osserva il costituzionalista statunitense Jack Balkin, discende direttamente dalla nuova sistematica del free speech nella società contemporanea. Se, tradizionalmente, la dialettica relativa alla regolazione della parola era diadica e vedeva il contrapporsi dell’individuo allo Stato, oggigiorno essa assume la diversa struttura di un triangolo al cui terzo vertice si inseriscono le aziende digitali[24]. Tale sviluppo ha determinato a sua volta un cambio di paradigma sul piano giuridico-legale, con l’elaborazione di forme di “new-school speech regulation” incentrate sulla regolazione dell’azione degli intermediari digitali[25].

La sostanziale delega di poteri tradizionalmente attribuiti allo Stato solleva tuttavia non poche preoccupazioni. Con riferimento al contrasto all’hate speech, in particolare, non poche perplessità sono determinate dal ricorso sempre maggiore agli algoritmi anche in fase di pre-moderazione, ovverosia al fine di effettuare una prima classificazione automatica tra contenuti dannosi, non dannosi oppure dubbi[26]. In effetti, il ricorso all’intelligenza artificiale (e al machine learning) è oggigiorno non solo imprescindibile, data l’enorme quantità di contenuti caricati online ogni giorno, ma può anche mitigare esternalità negative. Attraverso tale strumento è possibile, per esempio, limitare l’eccessiva esposizione dei moderatori umani a contenuti particolarmente scioccanti che possono a lungo andare comprometterne il benessere psico-fisico[27].

Ciononostante, la rilevazione automatica di contenuti non è esente da limiti: la letteratura ha rilevato, infatti, che i software attualmente disponibili presentano un ineludibile margine di errore. Vi sono, in particolare, due tipologie di errori: falsi negativi e falsi positivi[28]. Il rapporto tra le due fattispecie è, inoltre, inversamente proporzionale, cosicché la scelta si articola tra modelli algoritmici più stringenti (e quindi atti a determinare un più elevato numero di falsi positivi) e modelli più “blandi” (e quindi più soggetti al rischio di falsi negativi)[29]. Nella prima direzione sembrano essersi poste le maggiori piattaforme digitali, le quali hanno, negli ultimi anni, adottato politiche più severe nei confronti dei contenuti d’odio: una tendenza che, tra l’altro, sembra essersi notevolmente acuita a seguito dello scoppio della pandemia di COVID-19. Osservando il numero di fattispecie di hate speech sanzionate da Facebook, si nota un brusco incremento negli ultimi trimestri degli anni 2017-2020: 1,6 milioni (2017); 3,4 milioni (2018); 5,5 milioni (2019); 26,9 milioni (2020). Per quanto concerne Instagram, il numero è cresciuto da 645,6 mila casi (ultimo trimestre del 2019) a 6,6 milioni (ultimo trimestre del 2020)[30]. Lo straordinario incremento nel numero di contenuti categorizzati quali episodi di hate speech dagli algoritmi implementati dalle piattaforme porta con sé l’inevitabile rischio di un incremento dei falsi positivi e, pertanto, di un concreto vulnus alla libertà di espressione degli individui e al pluralismo informativo.

Tale rischio è, del resto, particolarmente rilevante laddove si consideri il ruolo ricoperto dall’analisi del contesto e dell’identità del singolo utente ai fini dell’inquadramento di un contenuto quale contenuto d’odio[31]. In un recente studio, Oliva et al. hanno utilizzato Perspective[32] per confrontare i risultati ottenuti dall’algoritmo nell’analizzare i tweet di noti suprematisti bianchi statunitensi e di alcune celebri drag queen. Lo studio ha rilevato come i tweet di queste ultime risultassero “tossici” quanto (o più) di quelli dei suprematisti bianchi in ragione dell’utilizzo dello slang tipico della comunità LGBTQIA+, improntato alla riappropriazione di termini originariata omo-transfobici (si pensi, per esempio, alla parola “queer”). Mancando un’attenta ricostruzione del contesto, nonché dell’identità dell’utente che aveva pubblicato il contenuto, messaggi anche fortemente inclusivi venivano riconosciuti come negativi per la semplice presenza di termini come “gay”, “tranny” e “fag[33].

 

  1. Conclusioni

 

La diffusione di hate speech ha sviluppato con l’avvento di Internet e dei social media una dimensione del tutto inedita. Le forme che il fenomeno ha assunto ne rendono particolarmente problematiche sia le conseguenze[34] sia la regolazione da parte delle istituzioni pubbliche. In quest’ottica, le piattaforme e gli intermediari digitali, nella loro crescente funzione di gatekeeper dell’informazione[35], hanno acquisito un ruolo sempre più centrale nella gestione del fenomeno.

L’intervento di attori privati risulta essere al giorno d’oggi imprescindibile; tuttavia, il trapasso nelle loro mani di funzioni tradizionalmente pubblicistiche non manca di sollevare preoccupazioni, considerata l’attuale assenza di una barriera di diritto costituzionale atta a tutelare gli individui da eccessive ingerenze nella loro sfera di dignità e libertà personale. Se, come osservato da Luciano Floridi, l’esperienza umana si concretizza oggigiorno nell’onlife[36], sembra doveroso interrogarsi intorno alla trasferibilità di tali diritti fondamentali nel contesto digitale e conseguentemente, in un’ottica di costituzionalismo digitale[37], sembra quanto mai attuale un ripensamento del rapporto intercorrente tra utenti della rete e attori privati quali le piattaforme stesse. Tale indagine potrà fungere da base, in un’ottica di futura policy-making, per l’introduzione di adeguate misure a tutela di garanzie essenziali quali la trasparenza in merito alle decisioni operate (anche per mezzo di strumenti algoritmici) e la previsione di adeguati mezzi di reclamo[38].

 

 

[1] Appena pochi mesi dopo, Facebook abbia deciso di sospendere altresì l’account di un altro Capo di Stato, Nicolás Maduro, per aver violato le policy della piattaforma in materia di misinformazione. Si veda B. Ellsworth, Exclusive: Facebook freezes Venezuela president Maduro’s page over COVID-19 misinformation, in reuters.com, 27 March 2021.

[2] Così A. Guterres, Appeal to Address and Counter COVID-19 Hate Speech, in un.org, 8 May 2020: «I call on the media, especially social media companies, to do much more to flag and, in line with international human rights law, remove racist, misogynist and other harmful content».

[3] S. Walker, Hate Speech. The History of an American Controversy, Lincoln, 1994, 8.

[4] Si veda, in particolare, M.J. Matsuda et al., Words That Wound. Critical Race Theory, Assaultive Speech, and the First Amendment, Boulder, 1993.

[5] La Raccomandazione n. CM/Rec(97)20 definisce nei seguenti termini l’hate speech: «The term “hate speech” shall be understood as covering all forms of expression which spread, incite, promote or justify racial hatred, xenophobia, anti-Semitism or other forms of hatred based on intolerance, including: intolerance expressed by aggressive nationalism and ethnocentrism, discrimination and hostility against minorities, migrants and people of immigrant origin».

[6] CEDU, Erdoğdu and İnce v. Turkey, ric. 25067/94 e 25068/94 (1999); CEDU, Sürek v. Turkey (No. 1), ric. 26682/95 (1999); CEDU, Sürek v. Turkey (No. 4), ric. 24762/94 (1999); CEDU, Sürek and Özdemir v. Turkey, ric. 23927/94 e 24277/94 (1999).

[7] F. Faloppa, #Odio. Manuale di resistenza alla violenza delle parole, Milano, 2020, 23-24. Nel 2018, la voce “hate speech” è stata inserita quale neologismo all’interno del dizionario online della Treccani, che così la definisce: «Espressione di odio rivolta, in presenza o tramite mezzi di comunicazione, contro individui o intere fasce di popolazione (stranieri e immigrati, donne, persone di colore, omosessuali, credenti di altre religioni, disabili, ecc.)» (sub voce “hate speech”, in treccani.it, 2018).

[8] A. Brown, What is Hate Speech? Part 2: Family Resemblances, in Law and Philosophy, 36, 2017, 604 ss.

[9] Si pensi, a titolo di esempio, al celebre e fortemente discusso testo del NetzDG. In Italia, l’on. Laura Boldrini ha recentemente presentato un disegno di legge sul contrasto all’hate speech online: cfr. A. Piemontese, C’è una nuova proposta di legge in Italia per combattere l’odio online, in wired.it, 6 aprile 2021.

[10] Si veda, in tal senso, lo European Democracy Action Plan (EDAP) presentato dalla Commissione Europea a dicembre 2020.

[11] ECRI, General Policy Recommendation No. 15 on Hate Speech, CRI(2016)15, in coe.int, 8 dicembre 2015.

[12] Abrams v. United States, 250 US 616 (1919).

[13] Si veda, sul punto, J. Weinstein, An Overview of American Free Speech Doctrine and its Application to Extreme Speech, in I. Hare – J. Weinstein (a cura di), Extreme Speech and Democracy, Oxford, 2009, 81 ss.

[14] Un’interessante riflessione sul modello europeo è quella proposta da J. Waldron, The Harm in Hate Speech, Cambridge, 2012.

[15] C.R. Sunstein, #Republic. Divided Democracy in the Age of Social Media, Princeton, 2017.

[16] S.U. Noble, Algorithms of Oppression. How Search Engines Reinforce Racism, New York, 2018.

[17] Si veda, sul punto, O. Pollicino, Fake News, Internet and Metaphors (to Be Handled Carefully), in Italian Journal of Public Law, 9, 2017, 1 ss.

[18] Si veda, inter alia, O. Pollicino – E. Bietti, Truth and Deception across the Atlantic: A Roadmap of Disinformation in the US and Europe, in Italian Journal of Public Law, 11-1, 43 ss.

[19] S.U. Noble, Algorithms of Oppression, cit., 110.

[20] S. Banaji – R. Bhat, Disinformation against Indian Muslims during the COVID-19 pandemic, in blogs.lse.ac.uk, 24 settembre 2020; I. Awan – R. Khan-Williams, Research Briefing Report 2020: Coronavirus, Fear and How Islamophobia Spreads on Social Media, in tandis.odihr.pl, aprile 2020.

[21] Si veda, in merito, The EU Code of Conduct on countering illegal hate speech online. The robust response provided by the European Union, in ec.europa.eu.

[22] Per un commento sul testo del NetzDG si veda, inter alia, V. Claussen, Fighting hate speech and fake news. The Network Enforcement Act (NetzDG) in Germany in the context of European legislation, in Medialaws, 3, 2018, 110 ss.

[23] Sul punto, si veda il Simposio: verso il Digital Services Act, in medialaws.eu.

[24] «These include social media companies, search engines, internet service providers (ISPs), web-hosting services, Domain Name System (DNS) registrars and registries, cyber-defense and caching services […], and payment systems». Si veda J. Balkin, Free Speech is a Triangle, in Columbia Law Review, 7, 2018, 2011 ss.

[25] J. Balkin, Old-School/New-School Speech Regulation, in Harvard Law Review, 127-8, 2014, 2296 ss.

[26] Cambridge Consultants, Use of AI in Online Content Moderation, in cambridgeconsultants.com, 18 luglio 2019, 5. Nell’ultimo trimestre del 2017, sulla totalità dei contenuti d’odio rimossi da Facebook, solo il 23,6% era stato individuato proattivamente tramite sistemi di intelligenza artificiale; nell’ultimo trimestre del 2020, la percentuale era incrementata al 97,1%. Instagram ha visto, tra l’ultimo trimestre del 2019 e l’ultimo trimestre del 2020, un incremento dal 44,9% al 95,1% (Facebook, Community Standards Enforcement Report, in transparency.facebook.com, 2021.

[27] Cfr. S. Quintarelli, Content moderation: i rimedi tecnici, in G. Pitruzzella – O. Pollicino – S. Quintarelli, Parole e potere. Libertà d’espressione, hate speech e fake news, Milano, 2017, 122; Cambridge Consultants, Use of AI in Online Content Moderation, cit., 61.

[28] Nel primo caso, una fattispecie di hate speech non è riconosciuta come tale; nel secondo caso, un contenuto è erroneamente riconosciuto come tale.

[29] Cambridge Consultants, Use of AI in Online Content Moderation, cit.; G. Sartor – A. Loreggia, The impact of algorithms for online content filtering moderation: “Upload filters”, in europarl.europa.eu, 15 settembre 2020.

[30] Facebook, Community Standards Enforcement Report, cit.

[31] Cfr., inter alia, M. Castellaneta, Discriminazione razziale e propaganda, obblighi di valutazione del contesto e critica politica tra diritto interno e diritto internazionale, in Medialaws, 3, 2020, 245 ss.

[32] Perspective, sviluppato da Jigsaw (precedentemente Google Ideas), è finalizzato a determinare il grado di “tossicità” dei contenuti postati in rete.

[33] T.D. Oliva – D.M. Antonialli – A. Gomes, Fighting Hate Speech, Silencing Drag Queens? Artificial Intelligence in Content Moderation and Risks to LGBTQ Voices Online, in Sexuality & Culture, 25, 2021, 700 ss. A puro titolo di esempio, lo studio riporta come Perspective abbia assegnato un grado di tossicità rispettivamente pari a 91,88% e pari a 11,71% ai due seguenti tweet: «Someone just wrote online “I wish you’d die faggot” what a waste of a wish. Of course I’m going to die. You think I’ll live forever?» (Bob The Drag Queen); «Mixed-race children have higher rates of various dysfunctions – anyone can marry anyone, of course, but people should be aware of the risks» (Stefan Molyneux).

[34] Cfr., inter alia, I. Gagliardone et al., Countering Online Hate Speech, Parigi, 2015.

[35] M. Taddeo – L. Floridi, New Civic Responsibilities for Online Service Providers, in M. Taddeo – L. Floridi (a cura di), The Responsibilities of Online Service Providers, Cham, 2017, 1 ss.

[36] L. Floridi, The Fourth Revolution, Oxford, 2014.

[37] Cfr. N. Suzor, Digital Constitutionalism: Using the Rule of Law to Evaluate the Legitimacy of Governance by Platforms, in Social Media + Society, 4-3, 1 ss.; G. De Gregorio, The Rise of Digital Constitutionalism in the European Union, in International Journal of Constitutional Law, 2021.

[38] Cfr. Facebook, Community Standards Enforcement Report, cit.: nel caso di Facebook, la possibilità di sporgere reclamo è stata dichiaratamente limitata nel secondo e nel terzo trimestre del 2020 a causa dell’insorgenza dell’emergenza sanitaria. Se nel primo trimestre si era concesso agli utenti di contestare la decisione della piattaforma con riferimento a 1,2 milioni contenuti, tale numero è sceso a 29,9 mila per il periodo tra aprile e giugno 2020 e a 41 mila per il periodo tra luglio e settembre. Il numero è nuovamente aumentato nel quarto trimestre (984,2 mila). Peraltro, questo dato è controbilanciato dalla constatazione che la stessa piattaforma abbia deciso in autonomia di ripristinare i contenuti rimossi in un considerevole numero di casi. Considerazioni simili valgono per Instagram.

Share this article!
Share.

About Author

Leave A Reply