Prospettive sul ruolo delle piattaforme nel bilanciamento tra accertamento processuale e profili di riservatezza. Riflessioni a margine della saga Gambia v. Facebook

Nel tentativo di dimostrare la presunta responsabilità del Myanmar nel caso di genocidio davanti alla Corte internazionale di giustizia, la Repubblica del Gambia ha presentato un’istanza ai sensi della sezione 1782 del Titolo 28 dello U.S. Code per ottenere un ordine di discovery nei confronti di Facebook al fine di assumere i contenuti da quest’ultimo rimossi, che avrebbero avuto un ruolo nella perpetrazione del genocidio contro la minoranza dei Rohingya. Nel settembre 2021, il magistrate judge Faruqui della Corte distrettuale per il Distretto di Columbia ha ordinato la discovery di tali materiali, ritenendo che non rientrassero nelle eccezioni previste dallo Stored Communications Act. In seguito alle obiezioni delle parti, il giudice Boasberg ha annullato il precedente order. Dopo una breve panoramica in ordine al genocidio dei Rohingya in Myanmar e al ruolo della piattaforma digitale, il presente articolo esamina queste decisioni antitetiche, approfondendo gli argomenti discussi ed esaminando le implicazioni potenzialmente di vasta portata sulla privacy delle comunicazioni elettroniche memorizzate ai sensi dello Stored Communications Act statunitense. Nell’affrontare le questioni relative a questa saga giudiziaria, si farà luce sulle difficoltà di applicazione dello statuto federale degli Stati Uniti ai social network, i quali svolgono attività di moderazione dei contenuti, ma si oppongono alle richieste di discovery per ragioni di tutela della privacy delle comunicazioni elettroniche memorizzate sui propri server.

In the attempt to prove the alleged responsibility of Myanmar in the case of genocide before the International Court of Justice, the Republic of Gambia filed an application under 28 U.S.C. § 1782 to take discovery from Facebook of deleted materials that played a role in the perpetration of genocidal acts against the Rohingya minority. In September 2021, a magistrate judge of the United States District Court of Columbia ordered Facebook to disclose such materials, that could not fall within the prohibitions provided for under the Stored Communications Act. Following the parties’ objections, the United States District Judge Boasberg reviewed the magistrate judge’s order and vacated it. After a brief overview of the factual background of these orders, this article examines these antithetical decisions, investigating the arguments discussed and examining these decisions’ potentially far-reaching implications on the privacy of stored electronic communications under the US Stored Communications Act. In addressing the issues surrounding this saga, some lights will be shed on the difficulties of applying the US federal statute to social media providers that are increasingly engaging in content moderation responsibilities, retaining the deleted content and refusing the discovery in order not to hinder reasonable expectations of privacy in stored electronic communications.

 

Sommario: Introduzione. – 2. Il ruolo di Facebook nel genocidio dei Rohingya. – 3. Atto I. Gambia v. Facebook: alla ricerca delle prove da usare dinanzi l’International Court of Justice (ICJ). – 4. Atto II. Gambia v. Meta: l’inversione di rotta della District Court. – 5. Un ulteriore passo verso il consolidamento del diritto alla riservatezza nell’ordinamento statunitense: quali conseguenze nell’acquisizione di evidenze probatorie?

 

  1. Introduzione

A partire dal 2012, militari e alti ufficiali birmani hanno condotto operazioni su larga scala ai danni della minoranza etnica e religiosa dei Rohingya. Sul piano internazionale, questi eventi sono oggetto di due distinti procedimenti. Da un lato, il Procuratore della Corte penale internazionale ha avviato proprio motu un’indagine[1]. Dall’altro, la Repubblica del Gambia ha avviato un procedimento dinanzi alla Corte internazionale di Giustizia (CIG) nei confronti del Myanmar, per essersi quest’ultimo reso responsabile del crimine di genocidio contro detta minoranza ai sensi della Convenzione del 1948 sulla prevenzione e la repressione del delitto di genocidio[2]. Nel gennaio 2020, i giudici dell’Aja hanno indicato misure provvisorie volte a esigere che il Myanmar impedisse la commissione di ulteriori atti di genocidio e a evitare la distruzione delle prove.

Dalla richiesta del Gambia di divulgazione di contenuti strettamente connessi a questi episodi derivano profili giuridici interessanti da un lato, con riguardo al ruolo delle piattaforme digitali nella diffusione di discorsi d’odio[3] e, dall’altro, circa l’obbligo giuridico dei service provider di consegnare contenuti da essi eliminati in modo permanente, ma memorizzati come copia di backup, quale materiale probatorio in un giudizio dinanzi un tribunale.

Adito dalla Repubblica del Gambia al fine di ottenere ulteriori evidenze probatorie nella causa promossa contro il Myanmar, nel settembre 2021, il magistrate judge della US District Court for the District of Columbia ha deciso su quest’ultimo profilo, ordinando a Facebook la discovery di post, account e comunicazioni connessi alla perpetrazione di odio etnico ai danni della minoranza musulmana dei Rohingya, che lo stesso social network aveva individuato come tali e conseguentemente rimosso. In seguito a una serie di objections sollevate in sede di impugnazione dalle parti, il giudice della Corte distrettuale si è pronunciato in senso opposto.

Questa serie di decisioni è rilevante sotto molteplici punti di vista. Un primo profilo, squisitamente internazionalistico, attiene alla discovery del materiale probatorio, necessaria affinché la Repubblica del Gambia provi dinanzi la CIG l’intento genocida birmano. In questo giudizio, il Gambia ha adito la Corte dell’Aja per accertare la responsabilità del Myanmar per la violazione della Convenzione sulla prevenzione e repressione del genocidio. Peraltro, tale ricorso rappresenta una interessante novità rispetto alle controversie tra Stati circa l’applicazione della Convenzione[4], essendo il primo ricorso di uno Stato non leso direttamente dalla violazione del testo in parola[5]. Un secondo profilo, invece, concerne temi che investono maggiormente una sensibilità costituzionalistica[6]. L’operazione di content moderation da parte di Facebook[7] per rimuovere contenuti illeciti impatta non solo sulla libertà di espressione[8] e sul diritto di informazione degli utenti, ma pone questioni di tutela della riservatezza delle comunicazioni private (eliminate dal provider) degli individui. Dalle ordinanze in commento emergono chiaramente le difficoltà nell’applicazione dello Stored Communication Act (SCA) in un ordinamento, come quello statunitense, in cui il diritto alla privacy gode, nei suoi rapporti dinamici, di ampia protezione.

Alla luce delle peculiarità del ruolo di Facebook nel genocidio dei Rohingya in Myanmar – episodi di cui si darà brevemente conto (§ 2) – il presente commento intende fornire una ricostruzione delle pronunce rese dal magistrate judge (§ 3) e dal giudice della Corte distrettuale per il Distretto di Columbia (§ 4), fornendo in conclusione alcuni rilievi critici sulla tenuta del diritto alla riservatezza delle comunicazioni dell’utente a fronte dell’esigenza processuale di acquisizione di queste ultime quali evidenze probatorie in procedimenti penali (§ 5).

 

  1. Il genocidio dei Rohingya e il ruolo di Facebook

Un commento a queste decisioni richiede di ripercorrere brevemente i fatti accaduti nella Repubblica del Myanmar, ove i Rohingya, minoranza etnica e religiosa in un Paese a maggioranza buddista, sono da decenni fortemente discriminati.

L’origine della questione dei Rohingya in Myanmar è risalente. Sebbene siano storicamente presenti nello Stato nord-occidentale del Rakhine, essi non sono ufficialmente riconosciuti quale minoranza etnica dal governo birmano[9]. Le loro stesse origini e successivo stanziamento in Myanmar sono discusse: mentre i Rohingya si ritengono eredi delle comunità arabo-persiane stabilitesi nell’area in questione[10], la popolazione birmana li percepisce come immigrati irregolari, aspetto che, unitamente a caratteristiche etnico-religiose, ha promosso un diffuso sentimento di avversione verso la minoranza, che è stata di frequente obiettivo di episodi di violenza[11].

Questo atteggiamento di diffusa ostilità si è aggravato a seguito dell’attacco di un gruppo armato di Rohingya denominato Arakan Rohingya Salvation Army contro alcuni posti di controllo della polizia locale, episodio che ha fornito alle autorità birmane un alibi per giustificare atti di vera e propria pulizia etnica, in alcun modo proporzionati rispetto all’asserita minaccia alla sicurezza pubblica. Numerose organizzazioni internazionali hanno denunciato tali persecuzioni come atti di violenza pianificati e istigati dalle forze militari birmane e in molteplici relazioni venivano documentati gravi crimini come arresti arbitrari di massa, sparizioni forzate, esecuzioni e detenzione extragiudiziali, tortura, stupri e violenze sessuali e di genere[12]. Peraltro, questi episodi di vessazione hanno comportato una crisi nella crisi: più di 800.000 persone sono oggi costrette a vivere in campi profughi al confine col Myanmar per sfuggire a tali atrocità[13].

In questa vicenda, il ruolo di Facebook è stato cruciale nel consentire la diffusione di una feroce narrazione che ha propagato convinzioni anti-Rohingya e antimusulmani[14]. Nella Repubblica del Myanmar Facebook rappresenta per un gran numero di utenti non solo l’unico mezzo di accesso alla rete, ma anche la sola fonte di fruizione delle informazioni[15]. I militari birmani, pertanto, hanno sfruttato l’ampia diffusione e influenza della piattaforma per incrementare un senso di avversione e per veicolare discorsi di incitamento all’odio, contribuendo a plasmare nell’opinione pubblica un sentimento contro i Rohingya. In questo contesto, dunque, il ruolo di Facebook è servito da detonatore dei fatti in commento[16], sicché lo stesso provider ha avviato una valutazione per verificare il proprio impatto sui diritti umani in Myanmar[17]. Il rapporto, da un lato, sottolinea come «[f]or the majority of Myanmar’s 20 million internet-connected citizens, Facebook is the internet»[18] e, dall’altro, ammette la propria responsabilità nel non aver prontamente impedito la diffusione di messaggi di incitamento alla violenza contro i Rohingya[19]. Riconosciuti gli errori nel prevenire tempestivamente la circolazione di discorsi d’odio e il diffondersi di disinformazione, la strategia di Facebook si è orientata alla identificazione di 438 pagine, 17 gruppi e 160 account di Facebook e Instagram in violazione dei propri Terms of Service (ToS), rimuovendoli dal social e mantenendone una copia di backup nei propri server.

Il tema della moderazione delle forme di discorsi d’odio nel panorama digitale è oggetto di numerose riflessioni dottrinali. La definizione del termine hate speech, affermatosi negli Stati Uniti[20] specialmente nel contributo dei teorici della critical race theory[21] e solo successivamente nel panorama europeo, è ricollegata a una varietà di significati dai contorni non sempre precisi.

Dal punto di vista giuridico, è opportuno offrire preliminarmente una sistematizzazione della tipologia di discorsi riconducibili al fenomeno in parola, inquadrandoli nell’ambito dei limiti imposti alla manifestazione del pensiero. Se da un lato il paradigma europeo si è assestato nel tratteggiare una libertà di espressione delimitata da condizioni e restrizioni[22], prevedendo peraltro uno spazio penalmente rilevante per talune fattispecie lesive dei diritti dei gruppi colpiti dai discorsi d’odio, dall’altro il paradigma statunitense si è sviluppato, sin dalla celebre dissenting opinion del giudice della Corte Suprema O. W. Holmes[23], nel senso di garantire un ampio spazio costituzionale alla libertà di espressione[24], costruito quale diritto assoluto e non limitabile attraverso approcci regolatori content-based[25].

Tuttavia, come peraltro esemplificato dai fatti in commento, l’avvento delle tecnologie della comunicazione e dell’informazione ha avuto un impatto su questioni del dibattito classico tradizionale. Invero, se il fenomeno della circolazione di discorsi d’odio è il medesimo, certamente diversa ne è la portata e la diffusione attraverso la rete. Data l’influenza delle tecnologie algoritmiche[26] e dei fenomeni di polarizzazione[27], che possono avere effetti nel rinforzare alcune avversioni razziali[28], andrebbe ripensata la metafora del free marketplace of ideas quale libero mercato ove le idee migliori sono destinate a prevalere in forza di un libero confronto dialettico[29]. Studi scientifici, infatti, dimostrano come l’indicizzazione dei contenuti proposti da alcuni motori di ricerca, fra cui Google, tenda a ricalcare bias etnico-razziali e a rinforzare narrazioni di oppressione delle minoranze[30].

Nelle more del procedimento dinanzi la Corte di Giustizia, proprio in ragione del ruolo di una piattaforma – in questo caso Facebook – nei gravi episodi di violenza del Myanmar, la Repubblica del Gambia si è rivolta alla Corte distrettuale degli Stati Uniti del Distretto di Columbia avanzando una richiesta ai sensi del 28 U.S.C. §1782.

 

  1. Atto I. Gambia v. Facebook: alla ricerca delle prove da usare dinanzi la Corte Internazionale di Giustizia

La saga giudiziaria dinanzi la corte distrettuale statunitense prende le mosse dal giudizio promosso dalla Repubblica del Gambia nei confronti del Myanmar presso la CIG e tuttora pendente.

Il 5 giugno 2020, la Repubblica del Gambia ha presentato alla Corte distrettuale degli Stati Uniti del Distretto di Columbia una richiesta ai sensi della sezione 1782 del Titolo 28 dello U.S. Code, che consente a una persona interessata («upon the application of any interested person») di adire un tribunale federale statunitense per ottenere un ordine di discovery al fine di assumere elementi probatori da utilizzare in un processo pendente dinanzi un tribunale straniero o internazionale («for use in a proceeding in a foreign or international tribunal»)[31]. In tal caso, il tribunale ove risiede o si trova temporaneamente il soggetto nei cui confronti la richiesta è avanzata può ordinare di rendere una testimonianza o dichiarazione, oppure la produzione di documenti o altre prove[32].

La Repubblica del Gambia, dunque, si è rivolta alla Corte distrettuale, chiedendo, in primo luogo, l’accesso ai documenti e comunicazioni degli account eliminati[33], in secondo luogo, la discovery dei documenti non riservati relativi alle indagini interne condotte da Facebook e, in ultimo, una deposizione di Facebook ai sensi della disposizione 30(b)(6)[34] circa la documentazione che Facebook è stato invitato a produrre. Facebook si è difeso, sostenendo che la disposizione 28 U.S.C. § 2702 dello Stored Communications Act impedisce, nei termini che verranno chiariti, la rivelazione del materiale richiesto dal Gambia e che la richiesta risultava eccessivamente onerosa. Facebook, dunque, invitava il giudice adito ad esercitare il proprio margine di discrezionalità e a rifiutare la richiesta.

Come previsto ai sensi della sezione 636(b)(1)(A)[35], una serie di mozioni e questioni preliminari possono essere deferite ai magistrate judges ai quali, nella maggior parte dei distretti, le discovery motions sono generalmente rimesse. La questione veniva deferita al magistrate judge Faruqui.

Entrando nel merito del primo order, quest’ultimo conduce una approfondita analisi del quadro normativo di riferimento delineato dallo Stored Communications Act, il quale ha introdotto la sezione 2702 del Titolo 18 dello U.S. Code[36]. Quest’ultimo prevede il divieto per entità che forniscono servizi di comunicazione elettronica al pubblico di divulgare i contenuti di tali comunicazioni «while in electronic storage by that service», delineando così alcune eccezioni alla concessione di civil subpoenas, anche laddove previste dal 28 U.S.C. § 1782.

Lo Stored Communication Act, quale parte di un più ampio sistema normativo previsto dall’Electronic Communications Privacy Act, disciplina una serie di garanzie simili a quelle previste dal Quarto Emendamento[37] per le comunicazioni che avvengono attraverso le reti informatiche. Nelle intenzioni del legislatore federale, il divieto per i provider di consegnare «to any person or entity» e-mail private era finalizzato a evitare che l’assenza di preciso quadro normativo sulle nuove tecnologie di comunicazione ne scoraggiasse l’utilizzo da parte di potenziali clienti, che incoraggiasse utenti non autorizzati ad ottenere l’accesso a comunicazioni di cui non sono parte, e che avviasse una progressiva erosione del diritto alla privacy[38].

Lo SCA è stato approvato dal Congresso statunitense nel 1986, in un periodo precedente all’avvento e alla diffusione dei social media. Questa notazione chiarisce le difficoltà di applicazione di tali norme all’attività di moderazione dei contenuti assunta de facto da parte delle piattaforme private online e rimanda a un problema tradizionale nel diritto dei media: la sconfinatezza del paradigma digitale rende talvolta complesso l’adattamento delle tradizionali categorie dogmatiche ai nuovi contesti sociali e tecnico-scientifici[39]. Nel caso di specie, la questione giuridica sottoposta al giudizio della corte ha richiesto uno sforzo ermeneutico di adattamento della norma, pensata in un momento in cui i social network non esistevano, al fenomeno della content moderation, che si è imposto con l’emergere dei contenuti generati dagli utenti. La corte, infatti, è stata chiamata a verificare se i contenuti rimossi dalla piattaforma Facebook sono giuridicamente qualificabili come copia di backup. In caso affermativo, per le ragioni che verranno chiarite, il contenuto rientrerebbe nelle eccezioni previste dallo SCA. In caso contrario, invece, il tribunale dovrebbe emettere un discovery order nei confronti del social network[40].

Nell’analisi sull’applicazione dello SCA, il magistrate judge si concentra su tre distinti profili, ossia la nozione di «protected user», i contorni della nozione di «electronic storage» e le eccezioni previste dallo SCA. Ai sensi dello SCA, «user» è definito come ogni soggetto che utilizza servizio di comunicazione elettronica ed è autorizzato a tale uso dal provider di quel servizio. I contorni della nozione di «protected user» e di «electronic communication service» sono lungamente analizzati alla luce delle argomentazioni delle parti. Da un lato, la Repubblica del Gambia ha sostenuto che gli ufficiali del Myanmar non siano utenti protetti ai sensi dello SCA e che non abbiano perciò diritto ad essere tutelati dalla rivelazione dei contenuti delle proprie comunicazioni. Nell’elencare in modo esplicito nella definizione di «person» esclusivamente gli agenti governativi degli Stati Uniti, il dato letterale paleserebbe una intenzione del legislatore nel senso di escludere gli agenti governativi stranieri dalle garanzie dello SCA. Il magistrate judge, invece, ha ritenuto che gli ufficiali del Myanmar siano individuals, le cui comunicazioni rientrerebbero astrattamente nei contorni delineati dallo SCA.

Al contempo, Facebook è stato ritenuto un electronic communication service (ECS) e poiché la sezione 2702(a)(1) del Titolo 18 dello U.S. Code vieta a questi ultimi di divulgare le comunicazioni «while in electronic storage by that service», l’analisi si è concentrata sulla qualificazione del materiale oggetto della richiesta da parte del Gambia. La corte ha chiarito che la nozione di «electronic storage» comprende due tipi di archiviazione elettronica: da un lato, una archiviazione temporanea e, dall’altro, un’archiviazione come copia di backup. Nello specifico, la Corte distrettuale ha dovuto analizzare se il contenuto che un provider rimuove – rendendolo permanentemente indisponibile per l’utente – e contestualmente conserva nei propri server sia qualificabile come «backup storage» ai sensi dello SCA[41].

La corte ha ritenuto che i contenuti cancellati dalla piattaforma non costituiscano copia di backup. Secondo il magistrate judge, infatti, è rilevante non tanto il luogo, quanto la motivazione per cui tali contenuti vengono memorizzati, tenendo conto del fatto che i post non sono equiparabili a comunicazioni private. In detto iter interpretativo, la Corte ha analizzato anche lo scopo per il quale i dati sono stati memorizzati. Pur considerando meritevole la memorizzazione dei dati da parte di Facebook per condurre una riflessione ragionata del proprio ruolo nei fatti del Myanmar, la Corte distrettuale, citando numerosi precedenti[42], ha ritenuto che la ratio della normativa in parola fosse quella di proteggere esclusivamente l’archiviazione di backup e non qualsiasi tipo di archiviazione elettronica. Facebook, inoltre, ha sostenuto che un’interpretazione restrittiva dei confini del «backup storage» avrebbe avuto serie ricadute sulla privacy dei propri utenti i quali, a fronte della disattivazione del proprio account, non avrebbero goduto di tutela alcuna con riguardo alle proprie comunicazioni, suscettibili di essere divulgate a qualunque soggetto da parte del fornitore di servizi di comunicazione elettronica. Ad avviso del magistrate judge, da un lato, non sussisterebbe un diritto alla privacy degli utenti che violano i termini di servizio e, dall’altro, prevarrebbe la necessità di scoprire le cause del genocidio dei Rohingya nel bilanciamento fra quest’ultimo e la riservatezza dei contenuti di cui si discute, peraltro già ampiamente circolati nel social media e da questo rimossi. Da ultimo, il giudice chiosa che questo argomento susciterebbe ironia data la poca attenzione mostrata da Facebook alla privacy dei propri utenti.

Il magistrate judge ha poi analizzato alcune eccezioni allo SCA, che consentono la divulgazione di contenuti altrimenti protetti. In un primo caso, il service provider è autorizzato a divulgare il contenuto della comunicazione con il consenso dell’utente che l’ha generato. La seconda eccezione, inapplicabile al caso di specie, prevede nella sezione 2702(b)(5) che «A provider […] may divulge the contents of a communication […] as may be necessarily incident to the rendition of the service or to the protection of the rights or property of the provider of that service».

Per quanto riguarda la prima eccezione, la corte ha concluso che i funzionari del Myanmar intendevano raggiungere un ampio pubblico di destinatari e che tenere i loro account e le loro pagine private avrebbe vanificato il loro obiettivo di diffondere messaggi d’odio contro i Rohingya. Di conseguenza, al di fuori dei messaggi privati, il contenuto richiesto dal Gambia rientrava in ogni caso nell’eccezione del consenso.

Facebook ha inoltre eccepito la natura troppo ampia della richiesta del Gambia, ritenuta indebitamente onerosa. Il magistrate judge ha respinto questo argomento a fronte di una richiesta al contrario molto specifica, tesa a ottenere i contenuti eliminati dalla piattaforma e risalenti al 2012, ritenuti estremamente rilevanti per il caso pendente dinanzi la CIG. Peraltro, avendo Facebook più volte richiamato pubblicamente l’abilità della propria squadra linguistica birmana[43] e le proprie capacità di revisione dei contenuti, a fortiori la corte non riteneva la richiesta indebitamente onerosa.

In ordine alle ultime due richieste, la corte, per i motivi delineati, ha ordinato alla piattaforma di produrre tutta la documentazione non riservata dell’indagine condotta internamente da Facebook. La richiesta di una deposizione secondo la disposizione 30(b)(6) è stata invece ritenuta indebitamente onerosa, e quindi, respinta.

 

  1. Atto II. Gambia v. Meta: l’inversione di rotta della District Court

Inizialmente la discovery motion è stata riferita al magistrate judge Faruqui, il quale ha accolto in parte le richieste dello Stato africano, ordinando alla società la discovery dei post cancellati da Facebook e la consegna della documentazione non riservata dell’indagine interna relativa al ruolo della piattaforma nel genocidio dei Rohingya in Myanmar.

Una parte può notificare e depositare obiezioni all’ordinanza del magistrate judge entro 14 giorni dalla notifica dello stesso e, se l’objection è introdotta tempestivamente, il giudice distrettuale è tenuto a considerarla e a revisionare il magistrate judge order. Ai sensi della disposizione 72(a) del Federal Rules of Civil Procedure[44], nell’esaminare i non-dispositive orders, il giudice della corte distrettuale deve modificare o annullare il precedente order o qualsiasi parte di esso che sia chiaramente errata o contraria alla legge. Il primo standard («clearly erroneous») prevede la revisione delle circostanze di fatto, mentre il secondo («contrary to law») consente la cd. de novo review delle conclusioni del magistrate judge[45]. Al contrario, la revisione dei dispositive orders è disciplinata dal Fed. R. Civ. P. 72(b), che prevede la necessità di condurre una de novo review di qualsiasi parte dell’order oggetto delle objections della parte[46].

Nel caso de quo, il giudice distrettuale sottolinea che, poiché la Corte affronta esclusivamente le obiezioni delle parti alle conclusioni dell’order, è indifferente la natura dispositive o non-dispositive dell’order. La corte, dunque, ha applicato la de novo review alle conclusioni del magistrate judge Faruqui.

Facebook ha presentato due tipi di objections rispetto all’order del settembre 2021: da un lato, lo SCA vieta a Facebook di rivelare queste comunicazioni private e, dall’altro, il magistrate judge avrebbe ecceduto i limiti della propria discrezionalità nel concedere la subpoena di cui alla sezione 1782[47]. La Corte ha preso in considerazione esclusivamente la prima objection.

La principale argomentazione di Facebook, dunque, è incentrata nel divieto previsto dallo SCA in capo alla piattaforma di divulgare le pagine private cancellate e le comunicazioni memorizzate sui propri server. Ancora una volta, la Corte tratteggia una breve panoramica del quadro statutario dell’Act in parola al fine di valutarne l’applicabilità a tali comunicazioni, giungendo tuttavia a conclusioni parecchio diverse rispetto a quelle del magistrate judge.

Posto che entrambe le parti sono concordi nel ritenere che Facebook sia un ECS rispetto ai contenuti oggetto del giudizio e che questi ultimi non rientrino nella categoria di «temporary storage», la corte ha chiarito ancora una volta che il punto nodale della questione giuridica è se le pagine private e le comunicazioni eliminate siano entrambe conservate «for purposes of backup protection»[48]. Da un lato, Facebook ha sostenuto che il contenuto delle pagine e dei messaggi eliminato sarebbe stato conservato sui propri server come copia di backup al fine di salvaguardare tali comunicazioni dalla distruzione. A detta della piattaforma, tale interpretazione rientrerebbe perfettamente nel significato di «for purposes of backup protection» e qualsiasi diversa interpretazione risulterebbe contraria alla ratio dello SCA, peraltro con serie ricadute in termini di privacy[49]. Dall’altro lato, il Gambia ha ribadito che il medesimo contenuto non può essere considerato una copia di backup poiché l’originale è stato eliminato; nella ricostruzione interpretativa fornita dalla difesa della Repubblica del Gambia, una delimitazione ristretta delle comunicazioni protette ai sensi dello SCA sarebbe la definizione che meglio rispecchierebbe le intenzioni del legislatore, il quale intendeva fornire solo un ventaglio limitato di protezioni[50].

In assenza di una definizione legislativa di backup protection, la corte ha fatto riferimento al suo significato letterale[51], ritenendo che una comunicazione è conservata a tali fini nel caso in cui la copia sia memorizzata per evitarne la perdita o l’irreversibile danneggiamento[52].

A giudizio della Corte, dunque, le copie degli account e delle pagine private, nonché le comunicazioni ad esse associate, rientrerebbero in questa definizione. Invero, rimuovendo detti contenuti Facebook ne avrebbe conservato legittimamente una copia anche per l’eventualità in cui fosse chiamato a produrle da parte di un organismo internazionale come le Nazioni Unite[53]. Tale memorizzazione, nondimeno, è uno step abituale nell’attività di rimozione dei contenuti condotta da Facebook a fronte della possibilità che un utente presenti una petizione a Facebook per ripristinare il proprio account sulla piattaforma[54]. Per tali ragioni, contenuti del genere costituiscono copie di backup memorizzate per evitare la perdita o la distruzione delle comunicazioni.

Questa lettura del sintagma «for purposes of backup protection» è a parere della Corte distrettuale quella maggiormente conforme al contesto legislativo dello SCA, promulgato al fine di colmare una lacuna esistente nell’ordinamento statunitense e di estendere anche alle comunicazioni elettroniche memorizzate, che non rientravano nell’alveo né di statuti federali né del Quarto Emendamento, schemi di protezione della privacy. Un’interpretazione contraria invece consentirebbe ai provider di eludere tali divieti di divulgazione dei contenuti di comunicazioni elettroniche attraverso la mera disattivazione, peraltro unilateralmente decisa sulla base di ToS stabiliti dalla stessa piattaforma[55], dell’account di un utente.

Nell’order del 3 dicembre 2021, dunque, il giudice distrettuale James E. Boasberg ha invalidato l’ordinanza del magistrate judge nella parte in cui ha interpretato erroneamente la locuzione «for purposes of backup protection», concordando con Meta che lo Stored Communications Act impedisca alla piattaforma di fornire al Gambia pagine private e comunicazioni dopo averle rimosse.

La Repubblica del Gambia, tuttavia, ha insistito con una Motion for Reconsideration per ottenere la discovery dei contenuti delle comunicazioni e ha nuovamente contestato l’ultima decisione di questa Corte. In particolare, il Gambia ha sostenuto che la Corte adita abbia errato nel rifiutare di considerare gli «alternative grounds for upholding the Magistrate Judge’s Order» e che abbia accordato preminenza alla forma – penalizzando il Gambia per aver intitolato i propri argomenti “motivi alternativi” piuttosto che “obiezioni” – anziché alla sostanza[56]. La corte ha sostenuto che, nonostante il Gambia non abbia rispettato i requisiti previsti ai sensi della Local Rule 72.2(b), il merito degli argomenti del Gambia comunque non sia sufficientemente persuasivo, negando pertanto la mozione di riesame[57].

Ancora una volta, il Gambia ha argomentato che i contenuti rimossi non siano protetti dallo SCA perché gli utenti che li hanno generati non rientrerebbero nella definizione di «users», da un lato, poiché il Congresso avrebbe escluso dall’alveo di questa categoria i funzionari dei governi stranieri, e quindi in questo caso gli alti ufficiali birmani; dall’altro, perché se la categoria di «users» comprende solo i soggetti autorizzati a utilizzare l’ECS, allora i post che violano i ToS, e vengono per tale ragione rimossi dalla piattaforma, ne sarebbero esclusi.

Sul punto, la Corte ha osservato che la sezione 2702(a)(1) non menziona il termine «users», sicché il divieto di divulgare le comunicazioni conservate in memoria elettronica da un ECS è indipendente dal soggetto che le ha originate. Peraltro, le eccezioni previste dalla sezione 2702(b) non escludono i funzionari dei governi stranieri. Da ultimo, l’interpretazione sistematica del testo dello SCA – che ex 18 U.S.C. § 2510 definisce gli «users» come qualsiasi persona o entità – contraddice l’argomento del Gambia che esclude dalla categoria i funzionari del governo birmano.

Anche il secondo argomento della Repubblica del Gambia non è stato accolto dalla corte. Secondo il Gambia, Meta non sarebbe un ECS con riguardo alle comunicazioni delle quali si dibatte perché un fornitore ECS è un soggetto che presta servizi agli «users», e solo quelli che lo utilizzano e sono debitamente autorizzati dal fornitore di tale servizio possono essere qualificati come «users».

La corte ha concordato con l’interpretazione fornita da Meta secondo cui la possibilità di escludere dalle garanzie dello SCA i contenuti rimossi da una piattaforma per violazioni dei termini di servizio concederebbe a queste ultime un eccessivo potere, chiarendo peraltro che un legislatore preoccupato di limitare la capacità dei provider di divulgare le comunicazioni non avrebbe accordato a questi ultimi la discrezionalità di determinare quali comunicazioni siano suscettibili di protezione. Una interpretazione di senso contrario, infatti, consentirebbe a qualsiasi provider di identificare un account o un post in violazione dei termini di servizio e di rimuovere quell’account, escludendo quelle comunicazioni dalle protezioni previste dallo SCA.

 

  1. La tenuta del diritto alla riservatezza delle comunicazioni informatiche vis-à-vis l’acquisizione di evidenze probatorie nei procedimenti penali

Le decisioni in commento rappresentano una importante tappa nell’accertamento delle accuse contro il Myanmar nel procedimento pendente dinanzi la Corte internazionale di giustizia. La divulgazione da parte di Facebook del materiale oggetto della controversia è cruciale per provare l’intento genocida delle violenze perpetrate nello stato del Rakhine. Sul merito di questa controversia, che peraltro esula dai fini del presente contributo, è presto per far luce. Tuttavia, essa dipende dall’accertamento dell’intento genocida di alcuni soggetti – se collegati o meno al governo birmano dovrà essere la Corte dell’Aja a stabilirlo – che si sono serviti di Facebook per diffondere sentimenti d’odio e legittimare agli occhi della pubblica opinione gravissime violazioni dei diritti della minoranza dei Rohingya, incitando atti di estrema violenza.

All’evidenza, la moderazione dei discorsi d’odio online da parte dei social network incide su una questione rilevante, ossia sulla necessità di bilanciamento tra la necessità di conoscere i contenuti di alcune comunicazioni ai fini dell’accertamento di illeciti penali e le pretese di riservatezza di tali contenuti. Nel caso di specie, l’attività di moderazione dei contenuti operata da Facebook in Myanmar si inserisce in questo solco: da un lato, i contenuti rimossi potrebbero costituire un efficace elemento probatorio per dimostrare l’intento genocida del Myanmar nel giudizio pendente dinanzi la CIG; dall’altro, è opportuno valutare se tali contenuti godano delle garanzie di riservatezza previste ai sensi dello Stored Communication Act, la cui ratio era diretta a garantire le comunicazioni effettuate a mezzo e-mail, che, per natura, presuppongono un numero determinato di destinatari[58]. Tuttavia, i casi in commento evidenziano le problematicità nell’applicazione di tali previsioni ai social network, attraverso i quali, invece, gli utenti possono condividere contenuti con un numero potenzialmente indeterminato di destinatari. Invero, con l’erogazione gratuita di servizi online, tali piattaforme consentono la condivisione di informazioni, idee, immagini, posto che gli utenti abbiano accettato le condizioni unilateralmente stabilite dalla piattaforma, pena la rimozione di tali contenuti.

Nel caso birmano, la cancellazione e la successiva archiviazione dei contenuti da parte del social network hanno ad oggetto dati e materiali che, come da stessa ammissione di Facebook, sono direttamente connessi alla diffusione di sentimenti d’odio contro la minoranza dei Rohingya. Ferme le delicate questioni di conservazione dei dati da parte delle piattaforme e di accesso e acquisizione delle informazioni da essi archiviate nell’ambito extra-giudiziale, la vicenda in commento evidenzia ulteriori profili di criticità rispetto al bilanciamento tra la protezione dei contenuti delle comunicazioni dei singoli ed esigenze processuali. Scopo del presente contributo non è stato quello di indagare gli effetti della attività di moderazione dei contenuti, quanto piuttosto di riflettere sulla portata di detta attività rispetto alla concessione della discovery dei contenuti rimossi dalla piattaforma.

Il risalente dato normativo dello SCA si scontra con la complessità di un assetto probatorio per l’accertamento di illeciti penali, in cui parrebbe ormai indispensabile tanto il ricorso al dato tecnologico quanto la data retention da parte dei service provider. Al contempo, dall’analisi delle principali linee argomentative in seno alla Corte distrettuale per il Distretto della Columbia emergono contrapposte letture e sensibilità. Per un verso, il giudice di prime cure ha ritenuto che i contenuti rimossi dalla piattaforma e conservati nei server costituiscano una copia di backup e debbano pertanto essere oggetto di discovery. Per l’altro, invece, il giudice distrettuale ha avanzato un’interpretazione di senso opposto, argomentando che sottrarre alle garanzie dello SCA i contenuti rimossi dalle piattaforme accorderebbe a queste ultime una eccessiva discrezionalità in merito.

L’esito antitetico di queste decisioni, peraltro di una corte distrettuale, non consente di fare previsioni circa i futuri sviluppi giurisprudenziali in materia, ciononostante pone le basi per alcune osservazioni di sistema. La prima attiene al tema della regolamentazione delle piattaforme e al duplice limite delle politiche pubbliche, da un lato, di voler disciplinare con strumenti per lo più nazionali o regionali un fenomeno che ha portata transnazionale e, dall’altro, di non riuscire ad elaborare nuove risposte che regolino fenomeni complessi. La seconda osservazione attiene alla sensibilità costituzionale statunitense che, pur se per certi versi diversa rispetto a quella europea, ha l’attitudine di produrre effetti in altri ordinamenti e, come in questo caso, sull’impalcatura probatoria di giudizi pendenti dinanzi a tribunali stranieri o internazionali. La terza considerazione rileva in un’ottica di trovare, preferibilmente per via legislativa, un punto di equilibrio tra le esigenze di accertamento dei reati, da un lato, e le pretese di riservatezza delle trame comunicative che avvengono per i canali informatici, dall’altro. La contrapposizione che emerge dalla lettura sistematica dei due order commentati consente di palesare la necessità di ripensare il bilanciamento tra le due opposte esigenze di tutela. Invero, se l’orientamento interpretativo della Corte distrettuale sull’istituto della discovery non consente congetture, un dato è certo: ove sussistano le condizioni per adire un tribunale statunitense, bisognerà fare i conti con una disciplina non al passo con i tempi e un approccio ermeneutico ondivago.


[1] Il 14 novembre 2019, la terza Camera preliminare ha autorizzato il Procuratore a proseguire con le indagini per l’accertamento della responsabilità per i crimini commessi ai danni dei Rohingya (ICC-01/19, Decision Pursuant to Article 15 of the Rome Statute on the Authorisation of an Investigation into the Situation in the People’s Republic of Bangladesh/Republic of the Union of Myanmar).

[2] Convenzione delle Nazioni Unite per la prevenzione e la repressione del delitto di genocidio del 9 dicembre 1948.

[3] N. Yue, The “weaponization” of Facebook in Myanmar: case for corporate criminal liability, in Hastings Law Journal, 71(3), 2020, 813 ss.

[4] Sentenza della Corte internazionale di giustizia del 26 febbraio 2007 nel caso sull’Applicazione della Convenzione per la prevenzione e la repressione del crimine di genocidio (Bosnia-Erzegovina c. Serbia e Montenegro) e Sentenza della Corte internazionale di giustizia del 3 febbraio 2015 nel caso sull’Applicazione della Convenzione per la prevenzione e la repressione del crimine di genocidio (Croazia c. Serbia).

La possibilità di adire la CIG per uno Stato non leso direttamente dalla violazione della Convenzione in parola implicherebbe che gli obblighi previsti ai sensi del trattato hanno natura erga omnes, v. M. Ragazzi, The Concept of International Obligations Erga Omnes, Oxford, 1997, 92 ss.

[5] C. Candelmo, Riflessioni a margine dell’ordinanza della Corte internazionale di giustizia sulle misure provvisorie nel caso Gambia c. Myanmar, in Ordine internazionale e diritti umani, 2, 2020, 356 ss.

[6] Sulla graduale emersione di principi costituzionali per regolare il fenomeno di Internet, v. O. Pollicino – G. Romeo (a cura di), The Internet and Constitutional Law. The protection of fundamental rights and constitutional adjudication in Europe, London, 2016.

[7] Nel presente articolo si è ritenuto di continuare ad utilizzare il nome di Facebook per far riferimento tanto alla piattaforma quanto alla società costituita nel giudizio in commento. Si tenga presente, tuttavia, che il 28 ottobre 2021, Facebook, Inc., la società che, fra le altre, controlla Facebook, Instagram e i servizi di messaggistica Whatsapp e Messenger, ha assunto la denominazione legale di Meta Platforms, Inc.

[8] In generale sui profili costituzionali della libertà di espressione nel panorama digitale, v. M. Bassini, Internet e libertà di espressione. Prospettive costituzionali e sovranazionali, Roma, 2019.

[9] Ai sensi della legge sulla cittadinanza del 1982, i Rohingya non rientrano tra le 135 etnie riconosciute e non sono, dunque, cittadini birmani. Cfr. Myanmar, Pyithu Hluttaw Law No. 4 del 1982 (Burma Citizenship Law). Il testo, nella traduzione in inglese, è reperibile all’url legal-tools.org.

Sulla negazione o privazione della cittadinanza a soggetti appartenenti a determinate minoranze come mezzo per spogliarli dei propri diritti, ex multis, v. H. Arendt, Le origini del totalitarismo, trad. it. di A. Guadagnin, Torino, 2009, 372: «Privati dei diritti umani garantiti dalla cittadinanza, si trovarono ad essere senza alcun diritto, schiuma della terra».

[10] A. Ware – C. Laoutides, Myanmar’s “Rohingya” Conflict, Oxford, 2018, 67 ss.

[11] S. Angioi, Aspetti sostanziali e procedurali della questione Rohingya di fronte alla Corte Penale Internazionale, in Ordine internazionale e diritti umani, 2019, 264 ss.

[12] U.N. Human Rights Council, Report of the Independent International Fact-Finding Mission on Myanmar, ¶ 74, U.N. Doc. A/HRC/39/64 (Sept. 12, 2018).

[13] Per un commento alla crisi migratoria che ne è seguita, v. R. Ty, The Rohingya Refugee Crisis Religions and Human Rights, in International Journal on Human Rights, 16(29), 2019.

[14] U.N. Human Rights Council, Thirty-Ninth Session, Report of the Detailed Findings of the Independent International Fact-Finding Mission on Myanmar Established Pursuant to Resolution 34/22, ¶ 1345, U.N. Doc. A/HRC/39/CRP.2 (Sept. 17, 2018).

[15] U.N. Human Rights Council, Report of the Independent International Fact-Finding Mission on Myanmar, cit.

[16] N. Hakim, How Social Media Companies Could Be Complicit in Incitement to Genocide Comments, in Chicago Journal of International Law, 21, 2020; P. Mozur, A Genocide Incited on Facebook, With Posts from Myanmar’s Military, in The New York Times, 15 October 2018.

A tal proposito, si segnala che un gruppo di Rohingya ha recentemente intrapreso le vie legali, chiedendo alla piattaforma un risarcimento di oltre 150 miliardi di dollari, sostenendo che l’algoritmo di Facebook avrebbe non solo consentito, ma anche amplificato, la veicolazione di messaggi contro la minoranza, senza che la piattaforma intervenisse per impedire o minimizzare le conseguenze.

[17] BSR, 2018, Human Rights Impact Assessment: Facebook in Myanmar”, in about.fb.com.

[18] Ivi, 12.

[19] K. Hao, How Facebook got Addicted to Spreading Misinformation, in Mit technology Review, 11 March 2021, in technologyreview.com; A. Warofka, An Independent Assessment of the Human Rights Impact of Facebook in Myanmar, Meta, 5 November 2018.

[20] S. Walker, Hate Speech. The History of an American Controversy, Lincoln, 1994.

[21] M.J. Matsuda – C.R. III Lawrence – R. Delgado – K.W. Crenshaw, Words That Wound. Critical Race Theory, Assaultive Speech, and The First Amendment, New York, 1993.

[22] Si veda, per esempio, il dato testuale dell’art. 10, par. 2, CEDU.

Sulla giurisprudenza della Corte di Strasburgo in materia di libertà di manifestazione del pensiero e hate speech, v. M. Castellaneta, La Corte europea dei diritti umani e l’applicazione del principio dell’abuso del diritto nei casi di hate speech, in Diritti umani e diritto internazionale, 3, 2017, 745 ss.

[23] Abrams v. United States, 250 US 616 (1919).

[24] L.C. Bollinger, The Tolerant Society: Freedom of Speech and Extremist Speech in America, Oxford, 1988; M. Rosenfeld, Hate Speech in Constitutional Jurisprudence: A Comparative Analysis, in Cardozo Law Review, 24, 2003, 1523 ss.; J. Waldron, The Harm in Hate Speech, Cambridge-London, 2012.

[25] J. Weinstein, An Overview of American Free Speech Doctrine and its Application to Extreme Speech, in I. Hare – J. Weinstein (a cura di), Extreme Speech and Democracy, Oxford, 2009, 81 ss.

[26] A. D’Atena, Tensioni e sfide della democrazia, in Rivista AIC, 1, 2018, 15.

Queste tecniche presentano dei risvolti costituzionali che non debbono essere trascurati. Sulla pervasività e l’incidenza di fake news e hate speech si veda G. Pitruzzella – O. Pollicino – S. Quintarelli, Parole e potere. Libertà di espressione, hate speech e fake news, Milano, 2017.

[27] C.R. Sunstein, #Republic. Divided democracy in the age of social media, Princeton-Oxford, 2017, 59 ss.

[28] G. Pitruzzella, La libertà di informazione nell’era di Internet, in G. Pitruzzella – O. Pollicino – S. Quintarelli, Parole e potere, cit., 86 ss.

[29] O. Pollicino, Fake News, Internet and Metaphors (to be handled carefully), in Italian Journal of Public Law, 9(1), 2017, 1 ss.

[30] S.U. Noble, Algorithms of Oppression. How Search Engines Reinforce Racism, New York, 2018.

[31] L’applicazione della sezione 1782 richiede che la corte abbia competenza e che valuti l’opportunità di esercitare tale potere discrezionale. Primo, la persona deve risiedere o trovarsi nel distretto della corte adita. Secondo, il materiale oggetto della richiesta dovrà essere utilizzato in un procedimento pendente dinanzi un tribunale straniero o internazionale. Terzo, la richiesta è avanzata da un soggetto che vi abbia interesse. Tali fattori sono soddisfatti nel caso de quo.

[32] Sulle origini e sulla ratio dell’istituto in parola, v. W.B. Stahr, Discovery under 28 U.S.C. § 1782 for Foreign and International Proceedings, in Virginia Journal of International Law, 30, 1990, 597 ss.

[33] Motion for Order to Take Discovery Pursuant to 28 U.S.C. 1782 filed by Republic of The Gambia (January 8, 2020), 8 ss. Nello specifico, la Repubblica del Gambia ha chiesto «[a]ll documents and communications produced, drafted, posted, or published […]» da molteplici account, pagine e gruppi sospesi o eliminati da Facebook a partire dal 2012.

[34] Federal Rule of Civil Procedure (“FRCP”) 30(b)(6).

[35] 28 U.S.C. § 636 – Jurisdiction, powers, and temporary assignment.

[36] Testo normativo reperibile online all’url law.cornell.edu.

[37] O.S. Kerr, A User’s Guide to the Stored Communications Act, and a Legislator’s Guide to Amending it, in George Washington Law Review, 72, 2004, 1208 ss.

[38] Senate Report No. 99-541 (1986); vedi anche Hately v. Watts, 917 F.3d 770, 783 (4th Cir. 2019).

[39] E. Castorina, Scienza, tecnica e diritto costituzionale, in Rivista AIC, 4, 2015; M. Bassini, Libertà di espressione e social network, tra nuovi “spazi pubblici” e “poteri privati”. Spunti di comparazione, in Rivista di Diritto dei Media, 2, 2021.

[40] A tal proposito, è interessante dare conto come dall’altro lato dell’Atlantico nell’aprile 2018 è stata presentata – ed è tuttora oggetto di negoziati – una proposta di regolamento del Parlamento europeo e del Consiglio relativo agli ordini europei di produzione e di conservazione di prove elettroniche in materia penale (COM(2018) 225 final – 2018/0108(COD)).

[41] Da un lato, la Repubblica del Gambia ha sostenuto che i contenuti rimossi da Facebook vengono permanentemente eliminati dalla piattaforma e non sarebbero dunque qualificabili come copia di backup. Dall’altro, Facebook ha argomentato che tali contenuti devono essere qualificati come copia di backup poiché presenti sui server di Facebook in prossimità del luogo in cui il contenuto attivo sulla piattaforma è memorizzato.

[42] Sartori v. Schrodt, 424 F. Supp. 3d 1121 (N.D. Fla. 2019); Flagg v. City of Detroit, 252 F.R.D. 346 (E.D. Mich. 2008); Theofel v. Farey-Jones, 359 F.3 d 1070 (9th Cir. 2004); Hately v. Watts, 917 F.3d 785 (4th Cir. 2019).

[43] Contra D. Bromell, Regulating Free Speech in a Digital Age. Hate, Harm and the Limits of Censorship, Cham, 2022, ove è sottolineato che negli anni del genocidio, Facebook aveva nella propria squadra di moderazione dei contenuti solamente cinque persone parlanti la lingua birmana a fronte di milioni di utenti attivi.

[44] Fed. R. Civ. P. 72(a).

[45] American Center for Civil Justice v. Ambush, 794 F. Supp. 2d 123, 129 (D.D.C. 2011).

[46] Fed. R. Civ. P. 72(b)(3).

[47] Response to Order of the Court re 22 Order on Motion for Authorization Order (Objections to Magistrate’s September 22, 2021 Order) filed by Facebook, Inc., 19-37.

[48] 18 U.S.C. § 2510(17).

[49] Response to Order of the Court re 22 Order on Motion for Authorization Order (Objections to Magistrate’s September 22, 2021 Order) filed by Facebook, Inc., 19-27.

[50] Reply re 24 Response to Order of the Court The Republic Of The Gambia’s Response To Facebook’s Objections To The Magistrate Judge’s Order Granting In Part And Denying In Part The Gambia’s Section 1782 Application On September 22, 2021 (refiled) filed by Republic of the Gambia, 18-23.

[51] Ross v. Blake, 578 U.S. 632, 638 (2016); Blackman v. District of Columbia, 456 F.3d 167, 176 (D.C. Cir. 2006).

[52] Hately v. Watts, 917 F.3d 791 (4th Cir. 2019).

[53] Response to Order of the Court re 22 Order on Motion for Authorization Order (Objections to Magistrate’s September 22, 2021 Order) filed by Facebook, Inc., 20.

[54] Response to Order of the Court re 22 Order on Motion for Authorization Order (Objections to Magistrate’s September 22, 2021 Order) filed by Facebook, Inc., 20-21.

[55] G. De Gregorio, Democratising Online Content Moderation: A Constitutional Framework, in Computer Law & Security Report, 36, 2020.

[56] Motion for Reconsideration of the Court’s Declination to Consider Its Alternative Grounds for Sustaining the Magistrate Judge’s Order 31 by Republic of the Gambia, 4-8.

[57] Memorandum Opinion re 36 Order on Motion to reconsider, Judge James E. Boasberg (March 3, 2022), 4-5.

[58] O.S. Kerr, A User’s Guide to the Stored Communications Act, and a Legislator’s Guide to Amending it, cit.

Share this article!
Share.