Transumanesimo: tra privacy e AI

Sommario: 1. Cenni alle esigenze sottese alla disciplina della protezione dei dati personali ed a quella della regolamentazione dell’AI. –  2. Transumanesimo.  – 3. Transumanesimo, tutela dei dati e AI. –  4. Conclusioni.

 

  1. Cenni alle esigenze sottese alla disciplina della protezione dei dati personali ed a quella della regolamentazione dell’AI

La disciplina della tutela dei dati personali[1] e quella relativa alle applicazioni di AI[2] si stanno rivelando in concreto estremamente interconnesse. Le due discipline nate in momenti storici diversi ed in luoghi diversi, l’una alla fine del 1800 negli Stati Uniti d’America[3] e l’altra all’inizio del XXI secolo nell’Unione Europea[4], rispondono ad esigenze solo in apparenza profondamente diverse: la prima quella della tutela dell’individuo nella circolazione dei suoi dati e la garanzia della libera circolazione degli stessi[5], la seconda quella di assicurare un sano sviluppo dei sistemi di AI limitando i rischi per gli individui [6] quando si servono di detti sistemi. Le due finalità sono in realtà coincidenti pur nella diversità dell’oggetto; astraendo dal contesto potremmo definirle come: i) esigenza di diffusione e circolazione e ii) necessità di tutela dell’interesse dell’individuo.

Va sottolineato che se la disciplina a tutela dei dati personali è stata soggetta ad un lungo ed articolato processo di creazione ed evoluzione durato più di un secolo, al contrario, la disciplina degli utilizzi di sistemi di AI si è venuta definendo negli ultimi dieci anni ed ancora non risulta cristallizzata in un atto normativo generale né nell’Unione Europea né negli Stati Uniti d’America mentre solo nella Repubblica Popolare Cinese[7] sono state recentemente approvare disposizioni generali vincolanti limitatamente AI sistemi di AI generativa; inoltre, l’evoluzione dei contenuti della proposta di AI Act, che solo con gli emendamenti del dicembre 2022[8] ha offerto una prima disciplina dei Deep Fake[9] e dell’AI generativa[10], dimostra come sia estremamente difficile la definizione di regole utili a rispondere alle esigenze della costante evoluzione dell’AI.

Di particolare rilevanza è anche la considerazione che la tutela dei dati personali si è evoluta insieme al crescere degli utilizzi e del numero dei dati scambiati senza che ci fosse mai un momento di vuoto normativo, di assenza di regole da applicare, lo stesso non può sostenersi per i sistemi di AI che vedono oggi miliardi di utilizzi a livello mondiale in assenza di regole specifiche quando solo per una porzione limitata di detti utilizzi è presente negli individui la consapevolezza della loro esistenza.

In tale ottica, in via generale, possiamo sostenere che, se il consenso[11] dell’interessato, libero e consapevole è uno strumento utile a risolvere gran parte delle possibili problematiche connesse con la tutela dei dati personali, detto istituto risulta non idoneo al medesimo fine in relazione alla disciplina dei sistemi di AI che per la pervasività nelle loro applicazioni travalicano necessariamente gli interessi del singolo, rendendo non dirimente il consenso dello stesso: tale elemento risulta particolarmente rilevante nell’analisi delle implicazioni del transumanesimo, che ad oggi risulta totalmente non regolato in modo organico e consapevole.

 

  1. Transumanesimo

Il transumanesimo studia i possibili utilizzi di innovazioni tecnologiche volti a migliorare la funzionalità fisica o mentale dell’uomo, analizzando le implicazioni tecniche, mediche e giuridiche.[12] Gli occhiali da vista, la sedia a rotelle, le protesi sostitutive delle gambe in kevlar, il sintetizzatore vocale che trasforma in suono il testo “digitato” con gli occhi, sono alcuni dei tanti esempi che ci aiutano a capire che il fenomeno non è né nuovo né rivoluzionario in sé ma è solo l’ultimo tassello di una evoluzione iniziata molto tempo fa. Indubbiamente sono nuove le sue implicazioni future, ove il transumanesimo sia applicato in modo massivo per migliorare funzionalità già esistenti modificando la struttura fisica e mentale di un individuo. Il massimo sviluppo del Transumanesimo dovrebbe portare secondo i suoi fautori ad una liberazione dell’umanità dal vincolo dell’evoluzione tramite un suo controllo preventivo.

Per la prima volta fu teorizzato da Julian Huxley[13] nel 1957 – negli stessi anni in cui nasceva il concetto di intelligenza artificiale – nel libro“New Bottles for New Wine”[14].

La finalità è ridefinire i limiti del corpo ed in prospettiva della mente dell’Uomo venendo o a porre rimedio a patologie o a potenziare situazioni nelle quali è totalmente assente ogni deficienza funzionale, con limiti e valutazioni etiche ben più complesse in questo ultimo caso[15]. L’aumento delle capacità fisiche è oggi una realtà e gli esperimenti per il miglioramento della capacità mentali sono molto avanzati: possibilità che oggi possono sembrare al limite della fantascienza saranno diffuse e nella disponibilità di molti nel medio periodo ed è per questo che una riflessione sulle implicazioni in diritto delle loro applicazioni è doverosa in particolare in relazione alla tutela dei dati personali dell’utilizzatore non tanto nei confronti del soggetto che gestisce il potenziamento il cui ruolo ed attività risulta giustificato dalla necessità di dare corso al contratto quanto piuttosto verso i terzi che vengono in relazione con l’individuo potenziato sia che il potenziamento abbia sanato gli effetti di una situazione patologica sia che si sia migliorata una situazione fisiologica.

Per completezza si fa presente che non vengono qui analizzate le implicazioni degli utilizzi militari del potenziamento umano: come sappiamo detto ambito risulta escluso da ogni regolamentazione in vigore ed in via di approvazione in materia di tutela dei dati e di AI[16].

Il transumanesimo è quindi un fenomeno già in essere le cui conseguenze estreme possono oggi inquietare alcuni, in modo non diverso di quanto un trapianto o una trasfusione avrebbe potuto spaventare un uomo medio della metà del 1800, ma che, tuttavia, necessita di una attenta e preventiva analisi giuridica delle implicazioni, specialmente in tema di tutela dei dati personali.

È certo che le applicazioni di AI utilizzate per sistemi di potenziamento umano che implicano le maggiori cautele etiche, che sono quelle connesse con il potenziamento delle capacità cognitive, sono oggi ancora in una fase del tutto sperimentale, a differenza di quelle che consentono un potenziamento fisico: l’utilizzo di impianti per consentire l’interlavoro diretto tra uomo e macchina o il caricamento di dati ha evidentemente un livello di potenziale lesività dei diritti connessi con i dati personali che non può essere semplicemente disciplinato facendo riferimento a categorie esistenti: né all’epoca della prima proposta di quello che sarebbe diventato il GDPR né all’epoca della sua pubblicazione era infatti neanche presente nel legislatore nazionale o dell’Unione Europea la consapevolezza dell’esigenza di disciplinare dette fattispecie[17].

I dati relativi AI sistemi di potenziamento umano sono di per sé dati medici e per questo dati particolari ai sensi del GDPR ma sono anche dati indispensabili all’esecuzione del rapporto contrattuale con il soggetto che esegue, monitora e riallinea, se necessario, il potenziamento: in tale ottica è necessario provvedere ad una analisi del rapporto tra consenso dell’interessato e diritto del terzo in relazione ai dati personali utilizzati delineando il fondamento giuridico in primis del potenziamento e poi del trattamento dei dati personali conseguenti allo stesso. In tale ottica l’art. 32 della Costituzione[18] è per alcuni[19] una possibile fonte giuridica per disporre da parte dell’interessato le “modifiche” fisiche che ritenga necessarie sia a carattere curativo che migliorativo, purché non disposte a vantaggio di terzi; il riferimento all’art. 5 del Codice civile[20] appare del tutto inconferente in quanto le modifiche sono disposte dall’interessato per sua scelta e volontà e senza che ci sia un vantaggio per terzi.  Già più di dieci anni fa ben prima che le attuali potenzialità tecniche si affacciassero alla soglia del possibile, Rodotà aveva teorizzato la modifica del corpo per attribuire nuove capacità o per restituirne di perdute[21].  Ciò che è certo è che in ogni caso le applicazioni che consentono il potenziamento umano, anche note come Human Enhancement Technologies (HET), devono sempre rispettare i diritti fondamentali e la dignità umana.

Per completezza si rappresenta che i sistemi HET devono rispettare a livello internazionale: 1) le previsioni della Carta dei diritti fondamentali dell’Unione Europea in particolare con riferimento alla dignità umana di cui all’art. 1[22] ed il diritto alla integrità della persona di cui all’art. 3[23] ma anche l’art. 7[24] relativo al diritto alla vita privata e familiare; 2) le previsioni della Convenzione Europea dei diritti dell’Uomo;[25] 3) le previsioni della Convenzione di Oveido[26] ed in particolare l’art. 1 e 2; 4) nel caso di utilizzo di apparati elettronici situazione che ha luogo sempre quando i sistemi HET utilizzano AI, le previsioni del regolamento sulle apparecchiature mediche 2017/45; 5) La direttiva NIS 216/1148 deve sicuramente essere rispettata in caso di connessione in rete dell’apparato di AI a supporto del HET.

 

  1. Transumanesimo, tutela dei dati e AI

Di tutti i possibili utilizzi dell’AI, la sua applicazione a sistemi che rendono possibile il miglioramento delle funzionalità umane è sicuramente tra quelli che pongono maggiore necessità di analisi in relazione alla tutela dei dati degli utilizzatori ma anche delle persone che si trovano vicino agli stessi. Se infatti l’interessato ha di norma la piena disponibilità delle proprie scelte in tema di diffusione o limitazione della circolazione dei propri dati, i sistemi di AI che aumentano le capacità dell’individuo rendono indispensabile non solo il consenso dell’interessato ma la puntuale consapevolezza dei terzi di trovarsi di fronte ad un utilizzo di un sistema di AI[27].

La prospettiva è quindi rovesciata nell’AI Act rispetto a quella del GDPR e tale impostazione sarà applicabile anche agli utilizzi di sistemi di AI utilizzati in strumenti di transumanesimo.

Nell’ambito delle applicazioni di transumanesimo partendo dalle protesi intelligenti che potenziano per l’esecuzione di lavori pesanti o da quelle che consentono di camminare creando una connessione elettrica che supera le conseguenze di una lesione fisica, per arrivare ad utilizzi ancora futuribili che potrebbero consentire un collegamento diretto tra mente umana e AI, appare imprescindibile una revisione normativa che consenta una lettura unitaria e ragionata delle norme del GDPR e AI Act ma anche la determinazione di nuovi principi ove quelli dei due regolamenti non fossero in grado di rispondere all’esigenza concreta in modo adeguato.

Ad esempio, riteniamo che un sistematico utilizzo di DPIA[28] e di AI[29], auspicabilmente redatte congiuntamente, sia indispensabile per evitare una erronea valutazione dei rischi connessi alle singole applicazioni e sistemi di potenziamento dell’uomo e, al contrario, per assicurare un utilizzo ottimale dei sistemi che combinano AI e interfaccia dirette con l’uomo. Il comma 6 dell’articolo 29 dell’ultima versione del draft AI Act prefigura tale impostazione.[30]

Inoltre, dovrà essere identificata una modalità sicura e non invasiva di comunicazione a tutti i terzi della presenza di un sistema di AI che supporta una applicazione di super umanesimo, ciò senza ledere il diritto dell’utilizzatore; una soluzione potrebbe essere l’obbligo per il sistema di AI di inviare un messaggio che avverta della presenza del sistema di AI senza indicare il mittente, che avrà sempre la possibilità per sua scelta di avvertire della propria identità.

Grande attenzione deve poi essere posta nel contemperare le esigenze non perfettamente allineate di GDPR e AI Act in relazione alla qualità e natura dei dati richiesti dall’AI Act e dal GDPR. Per l’art. 10 dell’AI Act i set di dati di addestramento e, ove applicabile, i set di dati di convalida e prova devono essere pertinenti, sufficientemente rappresentativi, adeguatamente verificati in termini di errori e il più possibile completi alla luce della finalità prevista[31]. Per il GDPR i dati devono essere minimizzati, necessari e proporzionati[32]. In tale ottica appare indispensabile, ancor più che in altri utilizzi, nei sistemi che utilizzando l’AI vengano a potenziare le capacità umane, che il programmatore riesca ad assicurare che tutti i criteri citati siano rispettati. Detta attività è stata resa indubbiamente più agevole dalla introduzione nell’ultima versione della proposta di AI Act di numerose norme di coordinamento generale tra disposizioni contenute nell’AI Act e previsioni del GDPR. Ricordiamo tra le altre l’emendamento 7 al Considerando 2-ter[33], l’emendamento 53 al Considerando 26-quinquies[34] ma soprattutto l’emendamento 80 al Considerando 45-bis [35] che conferma la rilevanza del principio della minimizzazione dei dati e fornisce un criterio interpretativo generale per la corretta lettura dell’art. 10 dell’AI Act ed in particolare del concetto di dati “sufficientemente rappresentativi”.

Altro aspetto che necessita di una attenta analisi è la possibilità di “leggere” stati mentali che in soggetti che siano stati sottoposti ad opportuni enhancements risulta strutturalmente applicabile. Tale situazione ha fatto teorizzare il diritto alla privacy mentale (in inglese il “right to mental privacy”) che dovrebbe evitare utilizzi indebiti delle informazioni acquisite con le tecniche che consentano l’accesso diretto alla mente[36], tanto che qualcuno ha chiesto l’introduzione di un Mental Data Protection Impact Assesment[37].

 

  1. Conclusioni

Dall’analisi di quanto accaduto a livello tecnologico e normativo negli ultimi anni appare evidente che il super umanesimo avrà uno sviluppo sempre più pervasivo e che una disciplina unitaria dello stesso appare necessaria per tutelare in modo adeguato gli utilizzatori ed i terzi, non risultando del tutto idonee le disposizioni esistenti in altri settori ad indirizzare tutte le problematiche che il super umanesimo pone. Alla luce delle diverse problematiche sollevate, la soluzione più opportuna è sicuramente quella di prevedere una disciplina ex ante che sia in grado di indirizzare in modo completo le esigenze legali, tecniche e mediche ponendo dei chiari limiti espressi e preventivi ad utilizzi tecnicamente possibili ma che possano venire a violare i principi applicabili alla base del GDPR e dell’attuale testo dell’AI Act. In particolare, possiamo sin d’ora identificare alcune esigenze che sono tratte sia dalle disposizioni del GDPR che dell’AI Act che i sistemi di HET che utilizzano AI dovranno rispettare: 1) l’esigenza che l’umano scelga sempre in modo consapevole ed informato di sottoporsi ad un trattamento di HET ed il connesso tema della tracciabilità e spiegabilità dei sistemi di AI asserviti a sistemi di HET; 2) la presenza costante della possibilità per l’umano di orientare sempre ciò che viene attuato dal sistema di AI asservito al sistema di HET; 3) il rispetto da parte di sistemi di AI che offrono HET del basilare principio di non discriminazione; 4) l’esigenza diversa di trasparenza verso i terzi che interagiscano con umani che utilizzino sistemi di HET che a loro volta beneficiano di sistemi di AI; 5) l’esigenza che i dati siano accurati, robusti e sicuri e che i livelli di accuratezza dei dati e le metriche di accuratezza siano dichiarate espressamente nelle istruzioni per l’uso; 6) l’esigenza che il sistema HET sia sviluppato ed offerto da un soggetto che abbia le necessarie conoscenze e qualifiche tecniche e che sia in grado con le necessarie assicurazioni di far fronte a richieste di risarcimento; 7) l’esigenza primaria che ogni sistema HET sia applicato senza porre a rischio la vita dell’umano considerando quanto ragionevolmente sicuro secondo lo stato delle conoscenze tecniche e mediche; 8) l’esigenza di non promuovere i sistemi di HET con campagne pubblicitarie che ne sviliscano la portata e i rischi.

In conclusione, considerando non sufficiente la regolamentazione di altri settori come quello medico o della responsabilità da prodotto, pure applicabili nelle more di future evoluzioni, è necessario prevedere un nuovo sistema di regole ed autorizzazioni specifiche che consentano l’offerta di sistemi HET solo da soggetti qualificati e solo a persone che siano state adeguatamente informate delle peculiarità ed implicazioni dell’impiego dei suddetti sistemi.

 

 

[1] Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati).

[2] Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione.

[3] S. D. Warren – L. D. Brandeis, The Right to Privacy, in Harvard Law Review, 4(5), 1890, 193 ss.

[4] Emendamenti del Parlamento europeo, approvati il 14 giugno 2023, alla proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione, in europarl.europa.eu, 14 giugno 2023.

[5] Art. 1Oggetto e finalità del GDPR.

[6] Amendment 140 Proposal for a regulation, Article 1 – paragraph 1 (new) «1. The purpose of this Regulation is to promote the uptake of human-centric and trustworthy artificial intelligence and to ensure a high level of protection of health, safety, fundamental rights, democracy and the rule of law, and the environment from harmful effects of artificial intelligence systems in the Union while supporting innovation».

[7] Measures for the management of generative Artificial intelligence service Interim Measures for the management of generative Artificial intelligence service, in cac.gov.cn, luglio 2023.

[8] Amendments adopted by the European Parliament on 14 June 2023 on the proposal for a regulation of the European Parliament and of the Council on laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts, in europarl.europa.eu, 14 giugno 2023.

[9] Emendamenti 101, 102, 399.

[10] Emendamenti 203, 486, 487.

[11] Art. 4, n. 11, GDPR.

[12] Il transumanesimo è un movimento che interessa la scienza medica, il diritto e la filosofia. Le sue declinazioni sono estremamente variegate e vanno dalla rigorosa valutazione scientifica sino a progetti che allo stato attuale della scienza e della tecnica rasentano la fantascienza. Mentre le applicazioni più concrete che comportano un miglioramento attuale del livello di vita reale dei cittadini necessitano di una impellente disciplina, l’applicazione più estrema che prevede un ancora teorico download della coscienza si scontra con la semplice constatazione che ogni download di dati contenuti nella nostra mente sta alla stessa come una nostra fotografia sta a noi. Per tale ragione detto argomento e ogni valutazione filosofica è stata attentamente evitata nel presente testo. Tra i tanti testi si citano: J. M. MacFerlane, Transhumanism as a New Social Movement. The Techno-Centred Imagination, Londra, 2020; S. Lilley, Transhumanism and Society: The Social Debate over Human Enhancement, Berlino-Heidelberg-Dordrecht-New York, 2012; N. Lee, The Transhumanism Handbook, Berlino-Heidelberg-Dordrecht-New York, 2019.

[13] Fratello di Haldous autore de Il mondo nuovo. Il nonno era Thomas Henry che sostenne le teorie di Darwin.

[14] Julian Huxley, New Bottles for New Wine, Londra, 1957 «I believe in transhumanism: once there are enough people who can truly say that, the human species will be on the threshold of a new kind of existence, as different from ours as ours is from that of Peking man. It will at last be consciously fulfilling its real destiny».

[15] U. Ruffolo – A. Amidei distinguono tra modifiche “curative” e modifiche “migliorative” in Intelligenza artificiale, human enhancement e diritti della persona, in Intelligenza artificiale il diritto, i diritti, l’etica, Milano, 2020.

Altri distinguono tra 1) miglioramento fisico 2) miglioramento cognitivo 3) miglioramento emotivo e morale. Si veda: S. Holm – M. McNamee, Physical enhancement: What baseline, whose judgment?, in J. Savulescu – R. ter Meulen – G. Kahane (a cura di), Enhancing human capacities, Hoboken, 2011, 291 ss.; T. Kjærsgaard, Enhancing motivation by use of prescription stimulants: The Ethics of Motivation Enhancement, in Ajob Neuroscience, 6(1), 2015, 4 ss.; S. K. Nagel, Shaping children: Ethical and social questions that arise when enhancing the young, Berlino-Heidelberg-Dordrecht-New York, 2019.

[16] Gli utilizzi militari sono oggi ben più diffusi e avanzati di quanto sia pubblico. Evidentemente tali utilizzi sono parte dell’attività che il militare deve compiere per il suo ufficio e i dati relativi sono nella totale disponibilità dei singoli eserciti. In internet è disponibile un’ampia descrizione di detti utilizzi che vanno dal potenziamento di sensi (vista e udito) ad impianti neurali ricercando articolo scientifici con le parole chiave military human enhancement.

[17] Ciò è un chiaro esempio della non tempestività dell’aggiornamento della normativa alle esigenze presentate dalla evoluzione tecnologica che risulta uno dei principali temi da affrontare per ogni branca del diritto che abbia una interrelazione tecnologica.

[18] Vanno rammentati anche i contenuti dell’articolo 3 della Carta dei diritti fondamentali dell’Unione Europea, Diritto all’integrità della persona: «1. Ogni individuo ha diritto alla propria identità fisica e psichica.

  1. Nell’ambito della biologia e della medicina devono essere in particolare rispettati il consenso libero e informato della persona interessata, secondo le modalità stabilite dalla legge;

– il divieto delle pratiche eugenetiche, in particolare di quelle aventi come scopo la selezione delle persone;

– il divieto di fare del corpo umano e delle sue parti in quanto tali una fonte di lucro;

– il divieto della clonazione riproduttiva degli esseri umani».

[19] U. Ruffolo – A. Amidei, Intelligenza Artificiale e diritti della persona: le frontiere del transumanesimo, in Giurisprudenza italiana, 7, 2019, 1658 ss., Capitolo 4 «Libertà di autodeterminazione e “diritto a potenziarsi”. L’art. 5 c.c. e gli artt. 32 e 2 (e 13) Cost.»: «[..]la dialettica tra gli artt. 2 e 32 Cost., la reciproca integrazione dei due precetti costituzionali ha ispirato una interpretazione dinamica della nozione di “salute” ex art. 32 Cost., intesa non quale mera assenza di malattia, bensì quale generale ed armonica “condizione […] di benessere fisico e psichico della persona”, come la definisce anche il Codice di deontologia medica; condizione perseguita anche dall’esercizio delle libertà del singolo, dominus del proprio corpo, nella realizzazione della propria personalità in sintonia con la percezione che ha di sé (anche in relazione al diritto alla “identità personale”)». Si pensi alla disposizione del proprio corpo che ha luogo nel processo di modifica del sesso.

[20] «Gli atti di disposizione del proprio corpo sono vietati quando cagionino una diminuzione permanente della integrità fisica, o quando siano altrimenti contrari alla legge, all’ordine pubblico o al buon costume».

[21] S. Rodotà, Costruzione del Corpo, in Treccani.it, 2009, «Così, in maniera sempre più marcata, il corpo si presenta come perennemente ‘incompiuto’, disponibile per una ininterrotta e sempre più incisiva attività di costruzione/modificazione. Su di esso è possibile intervenire per reintegrarne funzioni perdute o mai possedute (amputazioni, cecità, sordità) o proiettarlo al di là della sua antropologica normalità, rafforzandone le funzioni o aggiungendone di nuove, sempre in nome del benessere della persona, o della sua competitività sociale (incremento delle attitudini sportive, “protesi” per l’intelligenza). Siamo di fronte a “repairing and capacity enhancing technologies”, a una moltiplicazione delle tecnologie body-friendly, che dilatano e modificano la nozione di cura del corpo e annunciano l’avvento dei cyborgs, del corpo postumano. «Nelle nostre società il corpo tende a divenire una materia prima modellabile secondo l’ambiente del momento». Si allargano così le possibilità di intervento individuale, ma crescono anche le opportunità di interventi politici di controllo del corpo attraverso le tecnologie»; S. Rodotà, Il diritto di avere diritti, Roma-Bari, 2013. Degna di menzione è la categorizzazione proposta nel 2005 dal Gruppo europeo per l’etica delle scienze e delle nuove tecnologie: The European group on ethics in science and new technologiesEthical aspects of ICT implants in the human body, in ec.europa.eu, 3 marzo 2009, «Dispositivi ICT: dispositivi che si avvalgono delle tecnologie dell’informazione e della comunicazione, solitamente basati sulla tecnologia dei chip di silicio. Dispositivo medico attivo: qualsiasi dispositivo medico il cui funzionamento si basa su una fonte di energia elettrica interna e indipendente, ovvero su una fonte di energia diversa da quella generata direttamente dal corpo umano o dalla gravità. Dispositivo medico attivo impiantabile: qualsiasi dispositivo medico attivo destinato a essere impiantato interamente o parzialmente mediante intervento chirurgico nel corpo umano, o mediante intervento medico in un orifizio naturale, e destinato a rimanervi dopo l’intervento.

Dispositivi ICT passivi impiantabili: dispositivi ICT impiantabili nel corpo umano che utilizzano per il funzionamento un campo elettromagnetico esterno (Sezione 3.1.1. relativa al ‘Verichip’). Dispositivi ICT impiantabili online: dispositivi ITC impiantabili che utilizzano per il funzionamento una connessione (‘online’) con un computer esterno, o che sono interrogabili (‘online’) da un computer esterno (Sezione 3.1.2. relativa AI biosensori). Dispositivi ICT impiantabili offline: dispositivi ICT impiantabili il cui funzionamento non dipende da dispositivi ICT esterni (eventualmente dopo un’operazione iniziale di configurazione, come nel caso della stimolazione cerebrale profonda)».

[22] Art. 1 – Dignità umana. La dignità umana è inviolabile. Essa deve essere rispettata e tutelata.

[23] Art. 3 – Diritto all’integrità della persona. 1. Ogni individuo ha diritto alla propria integrità fisica e psichica.

  1. Nell’ambito della medicina e della biologia devono essere in particolare rispettati: il consenso libero e informato della persona interessata, secondo le modalità definite dalla legge, il divieto delle pratiche eugenetiche, in particolare di quelle aventi come scopo la selezione delle persone, il divieto di fare del corpo umano e delle sue parti in quanto tali una fonte di lucro, il divieto della clonazione riproduttiva degli esseri umani.»

[24] Art. 7 – Rispetto della vita privata e della vita familiare. Ogni individuo ha diritto al rispetto della propria vita privata e familiare, del proprio domicilio e delle sue comunicazioni.

[25] Art. 8 – Diritto al rispetto della vita privata e familiare. 1. Ogni persona ha diritto al rispetto della propria vita privata e familiare, del proprio domicilio e della propria corrispondenza. 2. Non può esservi ingerenza di una autorità pubblica nell’esercizio di tale diritto a meno che tale ingerenza sia prevista dalla legge e costituisca una misura che, in una società democratica, è necessaria alla sicurezza nazionale, alla pubblica sicurezza, al benessere economico del paese, alla difesa dell’ordine e alla prevenzione dei reati, alla protezione della salute o della morale, o alla protezione dei diritti e delle libertà altrui.

[26] Convenzione per la protezione dei Diritti dell’Uomo e della dignità dell’essere umano nei confronti dell’applicazioni della biologia e della medicina: Convenzione sui Diritti dell’Uomo e la biomedicina, Oviedo, 4 aprile 1997.

Art. 1 – Oggetto e finalità. Le Parti di cui alla presente Convenzione proteggono l’essere umano nella sua dignità e nella sua identità e garantiscono ad ogni persona, senza discriminazione, il rispetto della sua integrità e dei suoi altri diritti e libertà fondamentali riguardo alle applicazioni della biologia e della medicina. Ogni Parte prende nel suo diritto interno le misure necessarie per rendere effettive le disposizioni della presente Convenzione.

Art. 2 – Primato dell’essere umano. L’interesse e il bene dell’essere umano debbono prevalere sul solo interesse della società o della scienza.

[27] Come previsto dallo schema di Regolamento AI Act che impone la consapevolezza nell’umano di interagire con l’AI. Recital 16 del testo approvato il 14 giugno 2023: l’AI Act è pervaso dalla esigenza di consapevolezza dell’umano di interagire con un sistema di AI.

[28] Art. 35 del Regolamento (UE) 679/2016, “Valutazione d’impatto sulla protezione dei dati”.

[29] Art. 29 della proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione.
ECNL –  Data&Society, Recommendations for Assessing AI Impacts to Human Rights, Democracy, and the Rule of Law, in ecnl.org, 23 novembre 2021;
Vanja Skoric, Critical Criteria for AI Impact Assessment: An Aggregated View, in papers.ssrn.com, 2 giugno 2023. B. C. Stahl – J. Antoniou – N. Bhalla – L. Brooks et. al., A systematic review of artificial intelligence impact assessments, in Artificial Intelligence Review, 56, 11, 2023, 12799 ss.

[30] «Users of high-risk AI systems shall use the information provided under Article 13 to comply with their obligation to carry out a data protection impact assessment under Article 35 of Regulation (EU) 2016/679 or Article 27 of Directive (EU) 2016/680, where applicable».

[31] L’evoluzione dell’art. 10 è traccia evidente del lavoro svolto su questo tema. Text proposed by the Commission Amendment 3. «Training, validation and testing data sets shall be relevant, representative, free of errors and complete. They shall have the appropriate statistical properties, including, where applicable, as regards the persons or groups of persons on which the high-risk AI system is intended to be used. These characteristics of the data sets may be met at the level of individual data sets or a combination thereof». Amendment 3. «Training datasets, and where they are used, validation and testing datasets, including the labels, shall be relevant, sufficiently representative, appropriately vetted for errors and be as complete as possible in view of the intended purpose. They shall have the appropriate statistical properties, including, where applicable, as regards the persons or groups of persons in relation to whom the high-risk AI system is intended to be used. These characteristics of the datasets shall be met at the level of individual datasets or a combination thereof».

[32] Art. 5, c. 1, lett. c).

[33] Considerando 2-ter. Il diritto fondamentale alla protezione dei dati personali è garantito in particolare dai regolamenti (UE) 2016/679 e (UE) 2018/1725 e dalla direttiva (UE) 2016/680. La direttiva 2002/58/CE tutela, inoltre, la vita privata e la riservatezza delle comunicazioni, in particolare stabilendo le condizioni per l’archiviazione di dati personali e non personali e l’accesso AI dati archiviati in apparecchi terminali. Tali atti giuridici costituiscono la base di un trattamento dei dati sostenibile e responsabile, anche laddove i set di dati includano una combinazione di dati personali e non personali. Il presente regolamento non mira a pregiudicare l’applicazione del diritto dell’Unione esistente che disciplina il trattamento dei dati personali, inclusi i compiti e i poteri delle autorità di controllo indipendenti competenti a monitorare la conformità con tali strumenti. Inoltre, esso non pregiudica il diritto fondamentale alla vita privata e alla protezione dei dati personali previsto dal diritto dell’Unione in materia di protezione dei dati e della vita privata e sancito dalla Carta dei diritti fondamentali dell’Unione europea (la “Carta”).

[34] Considerando 26-quinquies. Il presente regolamento non dovrebbe incidere sulle pratiche vietate dalla legislazione dell’Unione, ivi incluso dalla normativa in materia di protezione dei dati, non discriminazione, protezione dei consumatori e concorrenza.

[35] Considerando 45-bis. Il diritto alla vita privata e alla protezione dei dati personali deve essere garantito durante l’intero ciclo di vita del sistema di AI. A tale riguardo, i principi della minimizzazione dei dati e della protezione dei dati fin dalla progettazione e per impostazione predefinita, sanciti dal diritto dell’Unione in materia di protezione dei dati, sono essenziali quando il trattamento dei dati comporta rischi significativi per i diritti fondamentali delle persone fisiche. I fornitori e gli utenti dei sistemi di AI dovrebbero attuare misure tecniche e organizzative all’avanguardia al fine di tutelare tali diritti. Tali misure dovrebbero includere non solo l’anonimizzazione e la cifratura, ma anche l’uso di tecnologie sempre più disponibili che consentano di inserire algoritmi nei dati e di ricavare informazioni preziose senza la trasmissione tra le parti o un’inutile copia degli stessi dati grezzi o strutturati.

[36] S. Ligthart – T. Douglas – C. Bublitz – T. Kooijmans et al., Forensic Brain-Reading and Mental Privacy in European Human Rights Law: Foundations and challenges, in Neuroethics, 14(2), 2020, 191 ss.; A. W. Paz, Is your neural data part of your mind? Exploring the conceptual basis of mental privacy, in Minds and Machines, 32(2), 2021, 395 ss.

[37] Si intende per digital mind technology una tecnologia volta all’esplorazione, all’analisi, all’influenza dei dati mentali.

Per dato mentale si intende ogni dato che può essere organizzato e processato per dedurre gli stati mentali della persona includendo gli stati cognitivi, affettivi e conativi.  M. Ienca – G. Malgieri, Mental data protection and the GDPR, in Journal of Law and the Biosciences, 9(1), 2022.

Share this article!
Share.