L’art. 7-bis, d.l. 28/2020, rubricata “sistemi di protezione dei minori dai rischi del cyberspazio” impone agli Internet service providers l’obbligo di strutturare e pre-attivare gratuitamente un sistema di filtro e blocco dei contenuti ritenuti inappropriati per un pubblico minorenne. Il precetto normativo – ad oggi rimasto lettera pressoché morta, poiché non recepito (o solo parzialmente recepito, a seconda dei casi) dagli operatori di rete – è in procinto di acquisire nuovo momento in virtù delle Linee Guida emanate dall’Autorità per le Garanzie nelle Comunicazioni (AGCOM). Ai fini di una compiuta analisi dello strumento di tutela – si badi: disegnato dal legislatore alla stregua di un parental control di Stato – pare opportuno collocare il medesimo all’interno del più ampio contesto normativo dedicato alla disciplina del cyberspazio, così da valutare le potenzialità della soluzione proposta nel panorama dei principi generali che regolano la materia
Art. 7-bis, Law Decree no. 28/2020, on “systems to protect minors from the risks of cyberspace”, imposes an obligation on Internet service providers to structure and pre-activate, free of charge, a system for filtering and blocking content deemed inappropriate for a minor audience. The regulatory provision – which to date has remained an almost dead letter, as it has not been implemented (or only partially implemented, as the case may be) by network operators – is about to gain new momentum by virtue of the Guidelines issued by the Italian Authority for Communications (AGCOM). For the purposes of a full analysis of the protection instrument – note: designed by the legislator in the manner of a State parental control – it seems appropriate to place the same within the broader regulatory context dedicated to the regulation of cyberspace, so as to assess the potential of the proposed solution in the scenario of the general principles governing the matter.
Sommario: Premessa e sintesi dei contenuti. – 1. La libertà di espressione nel cyberspazio: una libertà fondamentale – 2. La libertà di espressione nel cyberspazio: una libertà fondamentale messa a dura prova dall’evoluzione del web – 3. Parental control di Stato: art. 7-bis, d.l. 28/2020 e delibera AGCOM n. 9/23.
Premessa e sintesi dei contenuti
Qualora si adotti una definizione ampia di cyberspazio – lo spazio concettuale in cui si svolgono interazioni mediate da dispositivi informatici – la presenza di molteplici pericoli per lo sviluppo psico-sociale dei minori si impone ad oggi come evidenza empirica: fake news, cyberbullismo, hate speech, incitamento ad atti autolesionisti (specie in forma di challenges), pornografia e promozione di droghe forniscono soltanto una prima approssimazione delle minacce esplicite rivolte dal web al benessere psico-fisico dei minorenni, e a queste deve essere aggiunta l’incognita rappresentata dalla esposizione ai contenuti tipici dei social network (rapidi ed immediati, spesso di impronta narcisista, scientificamente programmati per indurre assuefazione e autoalimentarsi in casse di risonanza algoritmiche, non da ultimo a fini commerciali).
Le insidie del web 2.0 non sono certo rivolte in via esclusiva ai soggetti di minore età: i primi decenni di vita del fenomeno hanno ben evidenziato la necessità (e la materiale possibilità) di strutturare – a beneficio di tutti gli utenti, seppur adulti – un quadro normativo volto a promuovere il libero sviluppo del cyberspazio nella repressione giuridica dei contenuti di natura illecita. Ciò che, tuttavia, contraddistingue la posizione dei minorenni è la loro intrinseca vulnerabilità: una caratteristica di categoria che impone una riflessione circa l’opportunità di conferire loro uno strato di protezione ulteriore; protezione necessariamente peculiare, sia in ragione di contenuti resi patologici dalla minore età e invece fisiologici per adulti, sia in ragione dei significativi danni individuali riportabili da soggetti ontologicamente fragili.
L’opportunità – acuita dal più stretto contatto tra minori e cyberspazio indotto dallo scenario pandemico – è stata colta dal legislatore italiano nell’aprile 2020 con l’introduzione dell’art. 7-bis d.l. 28/2020: rubricata «sistemi di protezione dei minori dai rischi del cyberspazio», la disposizione normativa impone agli Internet service providers l’obbligo di strutturare e pre-attivare gratuitamente un sistema di filtro e blocco dei contenuti ritenuti inappropriati per un pubblico minorenne. Il precetto normativo – ad oggi rimasto lettera pressoché morta, poiché non recepito (o solo parzialmente recepito, a seconda dei casi) dagli operatori di rete – è in procinto di acquisire nuovo momento in virtù delle Linee Guida emanate dall’Autorità per le Garanzie nelle Comunicazioni (AGCOM).
Ai fini di una compiuta analisi dello strumento di tutela – si badi: disegnato dal legislatore alla stregua di un parental control di Stato – pare opportuno collocare il medesimo all’interno del più ampio contesto normativo dedicato alla disciplina del cyberspazio, così da valutare le potenzialità della soluzione proposta nel contesto dei principi generali che regolano la materia. La conclusione è quella per cui l’indeterminatezza dei contenuti oggetto di blocco e le ridotte possibilità di personalizzazione del filtro contenutistico da parte dell’utenza inducono plurime preoccupazioni sul versante della tutela del generale principio di Internet free speech e legittimano più di una riflessione sull’opportunità di invertire la gerarchia Stato-famiglia prevista dalla Carta costituzionale nell’espletamento della funzione educativa del soggetto minorenne.
- La libertà di espressione nel cyberspazio: una libertà fondamentale
La libertà di espressione e informazione è più di una libertà fondamentale: essa è la pietra angolare su cui si regge l’ordinamento democratico; si colloca in posizione preminente nella scala assiologica di valori imposta dalla concezione liberale e trova solido ancoraggio nel nucleo duro dell’assetto costituzionale.
Interviene in questo senso il First Amendment della Costituzione degli Stati Uniti d’America, nonché, per quanto attiene all’ordinamento europeo, l’art. 10 della Convenzione Europea dei Diritti dell’Uomo, il quale declina la libertà fondamentale in termini di «libertà di ricevere o di comunicare informazioni o idee senza che vi possa essere ingerenza da parte delle autorità pubbliche», postulando, quale limite tassativo al suo esercizio, la sola norma di legge strettamente necessaria a salvaguardare un proporzionato equilibrio con altri valori essenziali all’humus democratico, tra cui viene fatta espressa menzione della salute degli individui e della pubblica morale.
Per quanto di stretta pertinenza in questa sede, è inoltre doveroso evidenziare come la tutela del free speech – della libertà fondamentale che esso sottende – rappresenti il cardine attorno a cui gli ordinamenti democratici risultano aver imperniato ab origine la disciplina giuridica del cyberspazio.
È così per gli Stati Uniti d’America, ove la Section 230 – Communications Decency Act garantisce piena immunità da responsabilità editoriale all’interactive computer service provider, tanto in relazione alla trasmissione in rete di contenuti generati da terzi, quanto in relazione alla restrizione o all’eliminazione di tali contenuti. E con le dovute proporzioni, in direzione analoga si inserisce l’ordinamento dell’Unione Europea, ove gli artt. 12-15 E-Commerce Directive – nell’escludere expressis verbis la legittimità di un monitoraggio generale e preventivo posto in capo agli operatori di piattaforma – postulano, relativamente ai contenuti generati da terzi, un catalogo di esenzioni da responsabilità civile modulate sulla diversa natura dell’Internet service provider considerato (mere conduit, caching o hosting service provider).
Si impone una prima, essenziale, considerazione: la libertà di espressione, proprio poiché costituzionalmente protetta a titolo fondamentale, pone un limite invalicabile all’interpretazione della normativa in materia di cyberspazio, in particolar modo delle norme la cui finalità (o ad ogni modo effetto) è quella di porre argini alla libera circolazione dei contenuti in rete.
Qualsiasi norma volta a precludere l’accesso a contenuti digitali (il parental control di Stato non fa eccezione) si rivela ontologicamente lesiva della fondamentale libertà di espressione e, come tale, la sua conformità con l’assetto costituzionale deve essere vagliata ai sensi del principio di proporzionalità di cui all’art. 52 par. 1 della Carta dei Diritti Fondamentali dell’Unione Europea: conforme è soltanto quella compressione della libertà fondamentale che si riveli – non solo strettamente necessaria a garantire la tutela di un ulteriore substrato giuridico parimenti fondamentale (libertà, diritto, o interesse generale dell’Unione) – ma altresì assistita da una serie di presidi di misura che assicurino il raggiungimento della finalità perseguita per via della minor compressione possibile della libertà di espressione.
Se è indubbio, sul piano generale, che la salute psico-fisica dei soggetti minorenni sia un diritto fondamentale titolato ad operare in bilanciamento con altri valori fondamentali (quale, nel caso di specie, la libertà di espressione), è tuttavia necessario prestare particolare attenzione al versante della proporzionalità per quanto attiene alla massima estensione della compressione della libertà fondamentale ritenuta tollerabile, al fine, dall’ordinamento giuridico. Oltrepassato tale stringente confine, ciò che si prospetta è invero il conflitto della norma con i principi fondanti dell’ordinamento e, dunque, la sua invalidità costituzionale.
La miglior approssimazione del vaglio di proporzionalità operato dalla Corte di giustizia dell’Unione europea a tutela della libertà di espressione nel cyberspazio può essere colta tramite l’analisi della case-law relativa alla normativa sui diritti di proprietà intellettuale.
La case-law prodotta dall’ordinamento giuridico statunitense – nel cui assetto costituzionale il free speech occupa posizione preminente e, come tale, resistente al bilanciamento con altri diritti fondamentali, specie non enumerati – offre poi esempi paradigmatici della sfera di incostituzionalità riservata a mal calibrate restrizioni di contenuti web fondate sulla tutela dei minori. In Reno v. American Liberties Union, la Corte Suprema ha rigettato la conformità a Costituzione di una normativa – peraltro contenuta nel Communications Decency Act (per quanto più sopra detto, nucleo fondante dell’Internet free speech made in USA) – volta a reprimere, tramite criminalizzazione, la consapevole diffusione in rete di materiale “osceno”, “indecente” o “manifestatamente offensivo” a minori di anni diciotto, con contestuale esenzione di responsabilità per quei soli operatori che si fossero attivati per evitare il contatto tra minori e contenuti proibiti per il tramite di efficaci filtri basati sulla proof of age degli utenti. Si noti: l’intrinseca vaghezza delle locuzioni “osceno”, “indecente” e “manifestatamente offensivo” ha indotto la censura costituzionale della normativa – non tanto sul piano del principio di determinatezza della fattispecie criminosa, sancito in seno all’ordinamento USA dal Fifth Amendment e dalla correlata Void for Vagueness Doctrine – bensì, ancor più a monte, sul piano dell’indebita compressione della libertà di informazione tutelata dal First Amendment, la quale, nel caso di specie non opportunamente calibrata stante la sua genericità terminologica, avrebbe indotto il rischio di privare i minorenni di contenuti espliciti ancorché di natura artistica o educativa, nonché di allontanare gli adulti da contenuti che, ancorché osceni o indecenti, costituiscono parte integrante del loro fondamentale diritto di libera informazione. Per dirla con le parole della Corte Suprema, incostituzionale è quel filtro interposto tra informazione e utente che, seppur finalizzato alla tutela del minore, finisce col confinare l’adulto al perimetro contenutistico adatto al soggetto vulnerabile («it is true that we have repeatedly recognized the governmental interest in protecting children from harmful materials, but that interest does not justify an unneccessarily broad suppression of speech addressed to adults; as we have explained the Government may not reduce the adult population to only what is fit for children[1]»).
- La libertà di espressione nel cyberspazio: una libertà fondamentale messa a dura prova dall’evoluzione del web
L’impianto normativo di cui alla E-Commerce Directive, imperniato sulla tutela della libertà di espressione per via della de-responsabilizzazione dell’Internet service provider, è stato calato, nell’anno 2000, in un cyberspazio dalla fisionomia drasticamente differente da quella assunta in tempi più recenti. In allora, era lecito supporre che la libertà di informazione avrebbe trovato terreno fertile in un world wide web a trazione pluralista, in cui i contenuti generati dagli utenti avrebbero potuto fluire liberamente in rete, trasmessi e ospitati da una moltitudine piattaforme digitali opportunamente de-responsabilizzate al fine: blog, forum, portali; il web 1.0: Internet come libero mercato di idee e contenuti.
La transizione al web 2.0 ha tuttavia profondamente inciso sulla fisionomia originaria del cyberspazio; oggi, più che da plurimi attori, occupato (anzi, oligopolizzato) da singole piattaforme globali emerse vincitrici dall’effetto winner takes it all indotto dalle peculiarità strutturali del mercato digitale: simultanea economia di scala dal lato della offerta e della domanda, con conseguente aggregazione di utenti attorno a singoli servizi il cui valore viene alimentato dall’ampiezza della customer base, infine monetizzata per il tramite di strategie commerciali tarate sui profili digitali dei consumatori.
In siffatta concentrazione di mercato, gli Internet service providers – quegli stessi soggetti de-responsabilizzati dalla normativa europea relativamente alla veicolazione dei contenuti prodotti dagli utenti – assumono le vesti di veri e propri gatekeepers del traffico digitale; ruolo, quest’ultimo, che li pone in posizione privilegiata per eseguire operazioni di filtro e monitoraggio del flusso informativo: nella prospettiva tipica dell’analisi economica del diritto, destinatari ideali di obblighi di compliance normativamente imposti dall’autorità pubblica, poiché in grado di strutturare e implementare le soluzioni tecnologiche più idonee al fine e di sopportarne i rispettivi costi in virtù della monetizzazione del mercato che essi presidiano.
La considerazione è pregnante al punto da aver indotto il legislatore europeo a porsi in progressiva controtendenza rispetto all’originario paradigma normativo di cui alla E-Commerce Directive; numerosi, infatti, sono gli obblighi normativi calati dal legislatore in capo ai gatekeepers relativamente ai contenuti originati da terzi e da loro veicolati in rete: la normativa italiana in materia di parental control di Stato, dunque, non si configura come eccentrica compressione dell’Internet free speech, ma si colloca nel solco di distinti provvedimenti UE – Digital Services Act e Audiovisual and Media Service Directive tra tutti – emanati al dichiarato fine di coinvolgere i players della rete nella regolamentazione volta ad incrementare la sicurezza e la qualità contenutistica del cyberspazio.
Il Digital Services Act è paradigmatico del moderno approccio regolamentare: nonostante gli Internet service providers mantengano discreti margini di manovra nell’implementazione dei presidi necessari ad assicurare la compliance normativa, ad essere calata dall’alto in una logica top-down, da regolatore a regolato, è la categorizzazione degli operatori in quattro distinte classi di rischio, individuate alla luce della stimata influenza dell’attività svolta con i diritti fondamentali degli utenti; classi di rischio, quest’ultime, a cui si ricollegano ventagli di obblighi normativi progressivi nella loro estensione, sempre individuati in via unilaterale dal legislatore.
Per quanto attiene alla tutela dei minori in rete, è ad ogni modo l’Audiovisual and Media Service Directive ad applicare l’approccio normativo in analisi al tema: previa individuazione della categoria video sharing platforms, la Direttiva impone agli Stati Membri di vincolare quest’ultima ad assicurare la protezione dei minorenni da contenuti digitali qualificati come dannosi per il loro sviluppo fisico, mentale e morale; ciò attraverso una serie di soluzioni tecniche – implementabili dalle piattaforme, anche in ottica di self-regulation o co-regulation con l’Autorità – che postulano l’applicazione di filtri basati sulla age verification e su meccanismi di flagging dediti alla segnalazione di contenuti ritenuti nocivi, nonché su sistemi di parental control la cui attivazione e modulazione è, tuttavia, interamente rimessa alla disponibilità dell’utente.
È stato, acutamente, osservato come ci si trovi dinnanzi ad un nuovo paradigma di regolamentazione del cyberspazio a struttura, per così dire, “triangolare”, poiché tarato sui tre vertici rispettivamente rappresentati dalla autorità pubblica, dagli utenti di rete e – non da ultimo, anzi in posizione preminente – dagli Internet service providers, progressivamente responsabilizzati del monitoraggio della rete tramite imposizione normativa e, dunque, in buona misura, delegati allo svolgimento di compiti di stretta pertinenza dei pubblici poteri, ivi incluso il delicato bilanciamento tra i diritti fondamentali degli utenti[2].
Se l’efficienza economica e tecnologica costituisce il punto di forza del rinnovato paradigma normativo, numerose sono le sue controindicazioni giuridiche, in particolar modo avuto riguardo alla necessaria, per tutto quanto più sopra visto, salvaguardia della libertà di espressione nel cyberspazio.
Assegnare agli Internet service providers il bilanciamento di diritti fondamentali – nel caso che ci occupa, il bilanciamento tra libertà di espressione e tutela dei minori – significa delegare, quantomeno in prima istanza, l’equilibrio dell’assetto costituzionale del cyberspazio a soggetti privati, di certo non altrettanto sensibili alle istanze del diritto pubblico quanto lo sono alle esigenze economiche imposte dal proprio business model.
Profonda, dunque, deve essere la consapevolezza che l’assegnazione di obblighi di monitoraggio in capo all’Internet service provider porta con sé, quale effetto collaterale, la tendenza verso il fenomeno di collateral censorship: trattasi della censura di contenuti, ancorché potenzialmente leciti, operata da soggetti indifferenti alla salvaguardia di tali contenuti poiché estranei alla loro produzione e meramente dediti alla loro diffusione a scopo di lucro. Stante la concentrazione di mercato, d’altronde, ogni singolo Internet service provider trasmette (o ospita) per il tramite della propria piattaforma una mole di contenuti tale da rendere irrilevante il peso specifico di singoli pezzi di informazione; ne consegue che l’Internet service provider, per cui la rimozione di contenuti è operazione economicamente neutra, risulta finanziariamente incentivato ad elidere ogni contributo potenzialmente (e non necessariamente) illecito, così da evitare in radice il rischio di violazione della normativa ad esso destinata e i conseguenti costi connessi a possibili responsabilità vicarie o sanzioni amministrative.
Il rischio di collateral censorship viene inoltre catalizzato nel web dalla possibile opacità con cui le operazioni di blocco dei contenuti possono essere compiute: filtraggi automatizzati – specie se affidati all’intelligenza artificiale, alla sua nota opacità algoritmica, svolti in assenza di human oversight e svincolati dalla possibilità di opposizione per gli utenti – conducono a soppressioni intrinsecamente indebite della libera informazione, poiché non trasparenti e, pertanto, non giustificabili in un’ottica di due process.
Il legislatore europeo dimostra costante consapevolezza del fenomeno di collateral censorship e, invero, numerose sono le cautele poste a tutela della libertà di espressione che affiancano l’introduzione di ogni obbligo di monitoraggio dei contenuti calato in capo all’Internet service provider. Per restare al tema della tutela dei minori, è dirimente notare come le operazioni di filtro dei contenuti nocivi postulate dalla Audiovisual and Media Service Directive si collochino innanzitutto nel contesto di esenzione da responsabilità imposto dagli artt. 12-15 E-Commerce Directive già più sopra esaminato e, pertanto, come esse non possano in alcun caso risolversi nell’imposizione, in capo agli Internet service providers, di un obbligo di monitoraggio generale e preventivo dei contenuti diffusi in rete dagli utenti. Di più: se, da un lato, ai sensi della Direttiva appare legittimo applicare le più rigide misure di controllo dei contenuti a tutela dei minori, queste, dall’altro lato, sono nondimeno tenute ad ispirarsi ad un principio di proporzionalità parametrato, non solo in base alle dimensioni della piattaforma on-line, al servizio offerto e alla natura del contenuto tramesso, ma altresì in base al fondamentale diritto di libera espressione riconosciuto dall’ordinamento in capo al creatore del contenuto passibile di blocco, nonché al generale interesse del pubblico alla libera fruizione del medesimo. E ancora: le decisioni assunte dalla piattaforma in merito al blocco dei contenuti, anche all’esito di segnalazione da parte degli utenti tramite il meccanismo di flagging, lungi dall’essere unilaterali, devono poter essere contestate per il tramite di trasparenti procedure di complaints redressal strutturate dalla piattaforma stessa, e ogni disputa ad esse relativa deve poter essere giudicata imparzialmente nel corso di procedure stragiudiziali messe a disposizione degli utenti da parte degli Stati Membri.
Trattasi, quelle ora elencate, di una serie di garanzie poste a salvaguardia dei diritti fondamentali degli utenti: non solo di coloro i quali vantano il legittimo interesse a vedere implementati i sistemi di filtraggio dei contenuti a tutela dei minori, ma altresì dei content creators, a cui è riconosciuto il diritto di libera espressione in merito alle informazioni veicolate sul web, nonché del pubblico nel suo complesso.
- Parental control di Stato: art. 7-bis,l. 28/2020 e delibera AGCOM n. 9/23
Esaurita l’analisi del contesto tecnologico e giuridico in cui si inserisce la normativa italiana in materia di parental control di Stato, è ora possibile passare in rassegna i suoi contenuti specifici, così come recentemente esplicitati dalle Linee Guida emanante dall’AGCOM; ciò al fine di vagliare le potenzialità dello strumento posto a tutela dei minori e i relativi attriti con il generale principio di libera espressione nel web. A sintesi di quanto finora detto, si impone invero un punto fermo: è necessario vagliare la costituzionalità della normativa italiana in materia di parental control di Stato alla luce dei presidi di proporzionalità in essa insiti, a partire dalla circostanziata individuazione dei contenuti suscettibili di blocco e dall’indirizzamento di tale filtro nei confronti dei soli soggetti resi vulnerabili dalla minore età.
Ai sensi del primo comma dell’art. 7-bis, d.l. 28/2020, «i contratti di fornitura nei servizi di comunicazione elettronica disciplinati dal codice di cui al decreto legislativo 1° agosto 2003, n. 259, devono prevedere tra i servizi pre-attivati sistemi di controllo parentale ovvero di filtro di contenuti inappropriati per i minori e di blocco di contenuti riservati ad un pubblico di età superiore agli anni diciotto».
Quanto all’ambito oggettivo di applicazione della disposizione normativa – ricavabile dalle utenze coinvolte nella pre-attivazione del meccanismo di blocco – esso è opportunamente limitato alle sole offerte dedicate ai minori, nella misura in cui è in relazione a queste che opera l’obbligo di pre-attivazione del parental control, mentre per le restanti utenze il filtro contenutistico sarà soltanto reso disponibile ed attivabile (anziché disattivabile) a discrezione del titolare del contratto. Se – come evidenziato da alcune associazioni a tutela dei minori – ciò rende possibile l’aggiramento del filtro da parte dei minori tramite utilizzo dei dispositivi elettronici dei genitori o di altri soggetti maggiorenni, reagire a siffatto rischio tramite pre-attivazione del meccanismo di parental control sulla generalità delle utenze avrebbe postulato una frontale violazione alla libera circolazione dei contenuti digitali, stante l’impossibilità costituzionale di proteggere i minorenni tramite una re-disegnazione complessiva del cyberspazio a prova di soggetto vulnerabile che finisca col confinare la totalità degli utenti al medesimo, ridotto, perimetro contenutistico. Le critiche mosse alle Linee Guida sotto il profilo in analisi si rivelano dunque non condivisibili e prive di fondamento, poiché tarate in via esclusiva sulla esigenza di fornire ai minorenni il più ampio perimetro di tutela possibile, senza considerare le interferenze che un siffatto (ampio) perimetro di tutela genera con altri diritti fondamentali e interessi generali di pari rango quali quelli attinenti alla sfera dell’Internet free speech.
Quanto all’ambito soggettivo di applicazione della disposizione normativa, esso si palesa ben più ampio di quello fatto proprio dalla Audiovisual and Media Service Directive: se quest’ultima prevede sistemi di parental control liberamente attivabili dall’utenza e strutturati dalla sola categoria delle online video sharing platforms, la normativa italiana coinvolge nell’implementazione – e pre-attivazione – di siffatti sistemi di blocco contenutistico gli operatori di rete, ossia, quegli Internet service providers che, offrendo tramite i propri servizi l’accesso ad Internet, si qualificano alla stregua di mere conduit service providers ai sensi della E-Commerce Directive e, pertanto, godono di esenzione da responsabilità nei confronti di tutti i contenuti da loro trasmessi (i) senza dare origine alla trasmissione, (ii) senza selezionare il destinatario della trasmissione e (iii) senza selezionare o modificare le informazioni trasmesse.
Trattasi dei destinatari ideali dell’esenzione di responsabilità prevista dalla E-Commerce Directive, poiché rientranti, ancor più di altri Internet service providers, nell’archetipo di operatori di rete neutrali rispetto ai contenuti veicolati nel web. Per dirla con le parole della giurisprudenza della Corte di giustizia dell’Unione europea che si è occupata di perimetrare i confini soggettivi dell’esenzione di responsabilità prevista dalla E-Commerce Directive: operatori di rete che agiscono per via della mera elaborazione tecnica ed automatizzata delle informazioni apportate dagli utenti («by a merely technical and automatic processing of the information provided by the recipient of the service[3]»). Trattasi, pertanto, di soggetti particolarmente esposti al fenomeno di collateral censorship di cui si è poc’anzi detto, invero insito nell’indifferenza, soprattutto economica, nutrita dagli operatori rispetto ai contenuti veicolati in rete e alla loro possibile censura.
Il rischio di collateral censorship risulta nel caso di specie enfatizzato dalla vaga indicazione dei contenuti oggetto di blocco o filtro a tutela dei minori. A tal riguardo, la disposizione normativa italiana si rivela quantomai generica, limitandosi ad indicare, quali contenuti rispettivamente passibili di filtraggio e blocco, le vaghe categorie dei «contenuti inappropriati per i minori» e dei «contenuti riservati ad un pubblico di età superiore agli anni diciotto». L’apoditticità di siffatte indicazioni si configura come deleteria per la tutela dell’Internet free speech, palesando il profilo di incostituzionalità già più sopra sviscerato con l’ausilio della giurisprudenza della Corte Suprema USA, nel contesto che ci occupa peraltro esasperato dalla dinamica di collateral censorship indotta dalla concentrazione di mercato e dalla neutralità degli operatori di rete coinvolti nel paradigma normativo. Seppur esenti da responsabilità civile per omesso controllo dei contenuti di terze parti ai sensi della E-Commerce Directive, gli Internet service providers si troverebbero invero incentivati a formulare una interpretazione estensiva delle categorie contenutistiche suscettibili di blocco o filtraggio, così da minimizzare il rischio dell’esercizio del potere sanzionatorio conferito all’AGCOM in caso di omessa o parziale implementazione del parental control imposto ex lege.
Pregevole, dunque, è l’impostazione offerta dalle Linee Guida dell’AGCOM, nella misura in cui – tramite una lettura sistematica delle disposizioni di cui alla Audiovisual and Media Service Directive e del Codice Europeo delle Comunicazioni Elettroniche – priva gli operatori di rete del potere di riempire di significato le categorie di contenuti “inappropriati” o “riservati” postulate dalla normativa e riserva la competenza di tale classificazione in capo alla stessa Autorità amministrativa indipendente, seppur all’esito di procedure di co-regolamentazione svolte in sinergia con gli Internet service providers. Ciò nonostante, la soluzione proposta dall’AGCOM è destinata a trovare applicazione nel solo lungo periodo: nelle more della procedura di consultazione che sarà necessario implementare al fine di determinare i contenuti “inappropriati” per i minori o “riservati” agli adulti, infatti, la categorizzazione dei medesimi viene temporaneamente rimessa dalle Linee Guida in capo ai medesimi operatori di rete, i quali, al fine, possono utilizzare le liste di domini/sottodomini e contenuti determinate secondo proprie specifiche di servizio e/o fornite da soggetti terzi individuati sulla base della serietà e capacità professionale avuto riguardo alla idoneità degli stessi a perseguire gli scopi della legge e alle migliori prassi.
Preme dunque evidenziare, quantomeno nel breve periodo, un significativo incentivo di collateral censorship posto dalla normativa italiana in commento, che è necessario minimizzare quanto prima tramite instaurazione e finalizzazione del procedimento volto alla precisa classificazione ed individuazione dei contenuti a visione non libera. E, sul punto, è senz’altro necessario raggiungere un maggior grado di precisione rispetto a quanto anticipato in via interlocutoria dall’AGCOM tramite le Linee Guida in commento: categorie contenutistiche ambigue e suscettibili di interpretazione quali quelle proposte– e.g. «contenuti per adulti: nudità totale o parziale in un contesto sessuale pornografico» – rendono ardua la distinzione algoritmica, per stare nell’esempio, tra una clip di Pornhub e un estratto di “Ultimo Tango a Parigi”, sollevando dunque più di un dubbio circa l’opportunità di sottoporre al medesimo meccanismo di blocco contenuti ontologicamente distinti sul piano artistico-culturale, e così sulla piano della loro attitudine ad impattare lo sviluppo psico-sociale del soggetto minorenne. Tanto più che il filtraggio – in ottemperanza ad un pregevole presidio di proporzionalità previsto dalle Linee Guida – deve avvenire in linea di massima su singoli contenuti e, soltanto ove ciò si riveli non tecnicamente possibile, il blocco può coinvolgere l’intero dominio su cui il contenuto è ospitato, seguendo il criterio più ristrettivo sulla base dei contenuti presenti. Ove non si concretizzi un filtro tarato su singoli contenuti, invero, ciò che si prospetta all’orizzonte è l’espulsione coatta dei minorenni dalle piattaforme che accentrano l’utenza del web: di fatto, la frontale negazione del loro diritto di informazione e espressione in rete.
La necessità di una oculata categorizzazione dei contenuti passibili di blocco deve essere stressata altresì alla luce della ridotta possibilità di personalizzazione del parental control da parte dell’utenza. Ferma la sua pre-installazione, il potere di disattivazione, riattivazione e configurazione è rimesso all’esercente la potestà genitoriale sul minorenne titolare del contratto con l’Internet service provider, il quale – previa identificazione digitale – lo esercita tramite l’interfaccia web o app che l’operatore di rete è tenuto a disegnare in maniera semplice ed intuitiva. Tuttavia, l’unica funzionalità che l’Internet service provider è tenuto a garantire all’utenza è quella volta alla attivazione-disattivazione delle categorie oggetto di blocco (e.g. «contenuti per adulti» – «armi» – «odio e discriminazione»), mentre resta una mera facoltà dell’operatore di rete l’implementazione di una soluzione tecnologica che consenta all’utente (maggiorenne) la personalizzazione dello specifico contenuto di siffatte categorie tramite liste di domini consentiti e vietati (block list e allow list). Una facoltà che – stante il principio di gratuità nell’offerta del servizio a cui sono vincolati gli operatori di rete – risulta assistita da incentivi finanziari al suo omesso esercizio e che dunque raramente, si crede, sarà implementata. Si configura, pertanto, lo scenario che vede l’esercente la potestà genitoriale essere vincolato alla scelta di consentire la visione da parte del minorenne di tutti (o nessuno) i contenuti appartenenti ad una data categoria, senza possibilità di ulteriore distinzione: per riprendere l’esempio, il video pornografico e la scena sessualmente esplicita di un’opera cinematografica. In questo senso, è possibile argomentare l’inversione del rapporto gerarchico famiglia-Stato imposto dagli artt. 29-31 della Carta costituzionale nell’esercizio della funzione educativa del minore: è l’autorità pubblica, con l’aiuto degli Internet service providers, a predisporre e pre-attivare gli strumenti dediti alla selezione del patrimonio informativo del minorenne e i contenuti da questi filtrati o bloccati, lasciando residuare in capo alla funzione genitoriale la sola scelta della loro totale rimozione o della loro parziale modulazione, ma negli angusti limiti in cui questa è concessa dall’architettura tecnologica degli applicativi.
Nella medesima ottica di esautorazione genitoriale, rileva, da ultimo, l’assenza di procedure di complaints redressal finalizzate alla gestione delle contestazioni formulate dall’utenza circa le modalità di selezione dei contenuti rispettivamente ammessi o bloccati alla stregua delle categorie contenutistiche previste dalla autorità pubblica (ad oggi, dagli operatori di rete). Pare invero aprirsi un vuoto di tutela: tanto per l’esercente la potestà genitoriale che veda il minore accedere a contenuti riservati agli adulti o non accedere a contenuti idonei alla minore età nonostante (o a causa de) il parental control; quanto per il content creator i cui contenuti vengano vietati al pubblico minorenne, che di tale circostanza potrebbe addirittura restare ignaro, nell’assenza di obblighi informativi previsti nei suoi confronti.
[1] Janet Reno, Attorney General of the United States, et al. v. American Civil Liberties Union et al., 521 U.S. 844 (1997).
[2] J.M. Balkin, Free speech is a triangle, in Columbia Law Review, 118(7), 2018, 2011 ss.
[3] CGUE C-236/08, Google France (2008); CGUE, C-324/09, L’Oréal (2009).