La regolamentazione in materia di Intelligenza artificiale, robot, automazione: a che punto siamo

0

SOMMARIO: 1. Il tentativo di una definizione univoca di robot e intelligenza artificiale. – 2. Riconoscere una soggettività alle creazioni di AI. – 3. La quarta rivoluzione industriale e il dibattito collettivo. – 4. L’impulso alla regolamentazione europea dato dalla Risoluzione di febbraio. – 5. Il copyright

  1. Il tentativo di una definizione univoca di robot e intelligenza artificiale

Il 2017 ha gettato le basi per la regolamentazione globale dell’Intelligenza Artificiale (AI) ma il primo aspetto, verrebbe da dire il più banale ma non il più scontato, è cercare di definire la robotica e l’intelligenza artificiale.

Una nozione univoca non esiste né di robot[1] (o bot) né di AI[2]. Probabilmente potrebbe essere più utile partire a contrario e, cioè, individuare cosa non rientri nel novero dell’AI e della robotica. Quando parliamo di AI non dobbiamo cadere nello stereotipo di un umanoide simile in tutto e per tutto all’essere umano, non si tratta del cervello umano o di un succedaneo[3] ma di algoritmi in grado di elaborare milioni di dati e fornire, sostanzialmente su basi statistiche, risposte. AI, sulla base di tale inquadramento, si riduce ad una serie di calcoli matematici, ancorché elaborati, indipendenti dalla fisicità della macchina; non necessariamente le applicazioni di AI si percepiscono pertanto nella loro materialità[4][5].

Non è dunque il corpus mechanicum a definire e qualificare l’AI bensì un processo totalmente automatizzato basato sull’acquisizione e l’elaborazione di informazioni in grado di fornire un risultato, di correggerlo e implementarlo. L’input resta quello umano: è quest’ultimo che sceglie l’obiettivo che l’applicazione di AI deve perseguire.

La difficoltà concreta iniziale, cercare una definizione di AI, è data dalla scelta del sostantivo “intelligenza” e dalla sua declinazione “apprendimento automatico”.

Gli algoritmi, i calcoli statistici non sono dotati di intelletto e non apprendono, tuttavia sono in grado, tramite elaborazioni complesse di ottenere effetti capaci di modificare la realtà, interagendo con l’essere umano, arrivando addirittura a sostituirne il processo volitivo ma limitato – almeno allo stato attuale – alla scelta iniziale del suo ideatore e utilizzatore.

Un’applicazione di AI nel campo di riabilitazione medica non è in grado di calcolare un premio assicurativo, di effettuare transazioni finanziarie di concedere o rifiutare un mutuo, di predisporre il miglior contratto di merger and acquisition e viceversa, nessuna di queste attività generate da un’elaborazione matematica è interscambiabile l’una con le altre. Dunque l’AI e le sue (attuali) applicazioni, seppure eccezionali, sono settoriali e necessitano comunque di un impulso iniziale esterno nella fase di programmazione.

Nonostante la Risoluzione del Parlamento europeo del 16 febbraio 2017 recante le “raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica”[6] tratti di robotica e intelligenza artificiale citandoli separatamente come vi fosse una consapevolezza tecnica, oltre che sostanziale, circa la loro distintività, solo l’allegato alla citata risoluzione dedica il primo punto alla «Definizione e classificazione dei “robot intelligenti”» fornendo gli indici per la loro futura individuazione a livello europeo:

«È opportuno stabilire una definizione comune europea di robot autonomo intelligente, comprese eventualmente le definizioni delle sue sottocategorie, tenendo conto delle seguenti caratteristiche:

–la capacità di acquisire autonomia grazie a sensori e/o mediante lo scambio di dati con il proprio ambiente (interconnettività) e l’analisi di tali dati;

–la capacità di apprendimento attraverso l’esperienza e l’interazione;

–la forma del supporto fisico del robot;

–la capacità di adeguare il suo comportamento e le sue azioni all’ambiente».

Da una prima lettura sembrerebbe che vi sia una coincidenza tra  il robot e il corpum mecanicum, quindi con la fisicità della macchina senza che tuttavia sia posto in secondo piano l’aspetto dell’autoapprendimento e dell’interazione del dispositivo con l’ambiente esterno in grado di produrre degli effetti automatici indipendentemente dalla fisicità del dispositivo.

Facendo un passo indietro, nell’indagine Eurobarometro del settembre 2012 dedicata alle inclinazioni del pubblico verso i robot, questi venivano definiti come macchine autonome capaci di aiutare gli esseri umani nelle attività quotidiane, come una specie di collaboratori, di aiutanti nei lavori in fabbrica o nelle attività di pulizia o per tutte quelle attività che possono essere pericolose per gli esseri umani, come la ricerca e il salvataggio in caso di disastri. Veniva altresì precisato che i robot avrebbero potuto essere di varie forme o dimensioni, inclusi quelli umani con l’ulteriore indicazione che gli apparecchi da cucina tradizionali, come un frullatore o un caffettiera, non erano annoverabili tra i robot (http://ec.europa.eu/public_opinion/archives/ebs/ebs_382_en.pdf).

Azzardando una semplificazione potremmo allora dire che il robot è un dispositivo automatico o semi-automatico in grado di assumere un comportamento dopo l’analisi e l’elaborazione dei dati ottenuti grazie a sistemi di AI. L’intelligenza artificiale è un software programmato e altamente elaborato capace di processare enormi quantità di dati e di auto-migliorare. I robot possono usare l’intelligenza artificiale per perfezionare le loro funzioni auto-correggendosi e implementando le proprie funzioni.

 

  1. Riconoscere una soggettività alle creazioni di AI

Lo sviluppo della robotica e dell’intelligenza artificiale solleva importanti sfide sociali che devono essere affrontate in modo da assicurare che ai benefici di queste nuove tecnologie – percepite come un miglioramento del processo decisionale umano – si accompagni il rispetto dei diritti fondamentali.

Ed è in questa direzione che nel corso del 2017 vi sono stati i primi tentativi di regolamentazione non solo a livello europeo.

Il 28 febbraio del 2017 il comitato etico della Società Giapponese per l’Intelligenza Artificiale (Japanese Society for Artificial Intelligence – JSAI), costituito all’interno di JSAI nel mese di settembre del 2014, ha approvato le linee guida sull’intelligenza artificiale che dovranno essere osservate dai membri di JSAI.

Si tratta di nove articoli che riflettono la relazione tra AI, tecnologia e società in cui nel preambolo si afferma che:

«L’AI assumerà un ruolo significativo nel futuro dell’umanità in una vasta gamma di settori, come l’industria, la medicina, l’istruzione, la cultura, l’economia, la politica, il governo, ecc. Tuttavia, è innegabile che le tecnologie AI possano diventare dannose per la società umana o entrare in conflitto con interessi pubblici a causa di un loro abuso o uso improprio.

Per garantire che la ricerca e lo sviluppo dell’AI rimangano a beneficio della società, i ricercatori dell’AI, in quanto professionisti altamente specializzati, devono agire in modo etico e secondo la propria coscienza e acume. I ricercatori di AI devono ascoltare attentamente le diverse opini della società e imparare da esse con umiltà. Con l’evolversi della tecnologia e lo sviluppo delle società, i ricercatori di AI dovranno costantemente cercare di sviluppare e approfondire il loro senso etico e di moralità in modo indipendente.

La Società giapponese per l’intelligenza artificiale (JSAI) formalizza le linee guida etiche che devono essere applicate dai suoi membri. Queste linee guida etiche serviranno da fondamento morale per i membri JSAI per diventare più consapevoli delle loro responsabilità sociali e incoraggiare una comunicazione efficace con la società. I membri JSAI si impegnano e rispettano queste linee guida».

Seguono i nove articoli:

  1. «(Contributo all’umanità) I membri della JSAI contribuiranno alla pace, alla sicurezza, al benessere e all’interesse pubblico dell’umanità. Proteggeranno i diritti umani fondamentali e rispetteranno la diversità culturale. Come specialisti, i membri della JSAI devono eliminare la minaccia alla sicurezza umana mentre progettano, sviluppano e utilizzano l’intelligenza artificiale.
  2. (Rispetto delle leggi e dei regolamenti) I membri del JSAI devono rispettare le leggi e i regolamenti relativi alla ricerca e allo sviluppo, alla proprietà intellettuale così come ogni altro accordo contrattuale. I membri della JSAI non devono arrecare danno agli altri attraverso la violazione di informazioni o proprietà appartenenti ad altri. I membri del JSAI non devono usare l’IA con l’intenzione di danneggiare gli altri, sia direttamente che indirettamente.
  3. (Rispetto della privacy degli altri) I membri del JSAI rispetteranno la privacy degli altri per quanto riguarda la loro ricerca e lo sviluppo di AI. I membri della JSAI hanno il dovere di trattare le informazioni personali in modo appropriato e in conformità con le leggi e i regolamenti .
  4. (Equità) I membri della JSAI saranno sempre giusti. I membri del JSAI riconosceranno che l’uso dell’IA può comportare ulteriori disuguaglianze e discriminazioni nella società che prima non esistevano e non darà luogo a pregiudizi quando si svilupperà l’intelligenza artificiale. I membri del JSAI, al meglio delle loro capacità, faranno in modo che l’intelligenza artificiale sia sviluppata come una risorsa che possa essere utilizzata dall’umanità in modo equo e imparziale.
  5. (Sicurezza) In qualità di specialisti, i membri della JSAI devono riconoscere la necessità che l’intelligenza artificiale sia sicura e riconoscere la propria responsabilità nel mantenere l’IA sotto controllo. Nello sviluppo e nell’uso dell’AI, i membri della JSAI presteranno sempre attenzione alla sicurezza, alla controllabilità e alla riservatezza richiesta assicurando al tempo stesso agli utenti di IA informazioni adeguate e sufficienti.
  6. (Agire con integrità) I membri del JSAI devono riconoscere l’impatto significativo che l’AI può avere sulla società. Agiranno quindi con integrità e in un modo che può essere considerato affidabile dalla società. In quanto specialisti, i membri della JSAI non asseriranno affermazioni false o poco chiare e sono obbligati a spiegare le limitazioni tecniche o i problemi dei sistemi AI in modo veritiero e in modo scientificamente valido.
  7. (Responsabilità e responsabilità sociale) I membri della JSAI devono verificare le prestazioni e l’impatto risultante delle tecnologie AI che hanno ricercato e sviluppato. Nel caso in cui venga identificato un potenziale pericolo, devono avvertire tutta la comunità. I membri della JSAI capiranno che la loro ricerca e lo sviluppo possono essere utilizzati contro la loro conoscenza ai fini di danneggiare gli altri, e si impegneranno a prevenire tale abuso. Se l’abuso dell’AI viene scoperto e segnalato, non vi sarà alcuna perdita per coloro che scoprono e segnalano l’abuso.
  8. (Comunicazione con la società e lo sviluppo personale) I membri del JSAI devono mirare a migliorare la comprensione della società dell’IA. I membri del JSAI capiscono che ci sono opinioni diverse sull’AI all’interno della società e imparano seriamente da loro. Rafforzeranno la loro comprensione della società e manterranno una comunicazione coerente ed efficace con loro, allo scopo di contribuire alla pace e alla felicità complessive dell’umanità. Come professionisti altamente specializzati, i membri della JSAI cercheranno sempre il miglioramento personale e sosterranno anche gli altri nel perseguire lo stesso obiettivo.
  9. (Rispetto delle linee guida etiche dell’AI) AI deve attenersi alle politiche sopra descritte allo stesso modo dei membri della JSAI al fine di diventare un membro o un quasi-membro della società.»

La finalità delle Linee guida è quella di riflettere le diverse opinioni riguardo all’impatto positivo e negativo che avrà l’AI nella società giapponese con l’intento di instaurare un dialogo continuo tra il pubblico e i ricercatori sul tema delle tecnologie e, in particolare, dell’AI e del suo riflesso sui temi etici.

Tuttavia mentre i primi otto articoli racchiudono principi e orientamenti generali che dovranno guidare i ricercatori affinché la tecnologia e le applicazioni di AI abbiano un utilizzo positivo volto al miglioramento della società e non alla sua involuzione, l’art. 9 ha un contenuto innovativo: riconoscere una soggettività alle creazioni di AI, un’autonomia ed una distintività così elevata rispetto ai suoi ideatori e programmatori tale da rendere necessario che le stesse applicazioni di AI debbano a loro volta rispettare le Linee Giuda. Non solo quindi i ricercatori ma il prodotto della loro ricerca.

Il contenuto dell’art. 9 non è altro che l’iniziale riconoscimento dell’AI come autonomo membro della società[7].

Una tema, quello del riconoscimento della personalità elettronica sul quale anche l’Unione Europea si sta interrogando.

Riconoscere la personalità giuridica ai robot potrebbe aprire possibilità per la loro capacità di avere una gamma completa di diritti e doveri su base contrattuale, in base alla legge sul copyright e persino al diritto di famiglia (si pensi solo al tema dell’affezione al robot, aspetto anch’esso affrontato a livello europeo) questo porterebbe a uno spostamento verso la considerazione dei robot come appartenenti all’area dei “vivi” – un tertium genus di soggetti facenti parte di una categoria giuridica autonoma – con la naturale conseguenza che ci troveremmo ad interrogarci su cosa effettivamente significhi essere un membro di una società.

In questa direzione (riconoscere autonoma soggettività alle creazioni di AI) si è mossa l’Arabia Saudita che ha concesso la cittadinanza al robot Sophia e a distanza di poche settimane Shibuya Mirai ha ottenuto la residenza di un popoloso distretto di Tokyo. Il primo è un androide, l’unico robot al mondo ad aver ottenuto la cittadinanza, il secondo un software o meglio, un chatterbot, in grado di dialogare con chiunque ne abbia voglia.

Mentre è di questi giorni la notizia del “licenziamento” di Fabio, un robot che “lavorava” in un supermercato di Edimburgo perché non adeguato alle mansioni per cui era stato “assunto”.

Il 16 febbraio 2017 il governo sudcoreano ha annunciato che più ministeri e agenzie governative sudcoreane avrebbero presentato nel corso del 2017 nuovi standard legali per definire (i) gli status giuridici, (ii) le responsabilità e (iii) gli standard etici delle nuove industrie basate sull’intelligenza artificiale (AI), auto a guida automatica e così via in modo che la società sudcoreana nel suo insieme possa essere preparata affinché un cambiamento possa essere innescato dalla quarta rivoluzione industriale[8]. Il governo sudcoreano sta conducendo ricerche su come riconoscere e utilizzare il valore dei big data in relazione ai diritti di proprietà, così che film, immagini e simili creati dall’AI possono essere protetti legalmente posto che secondo l’attuale legge sul copyright coreano, i proprietari del copyright sono limitati agli esseri umani.

Ed è nel numero del 27 novembre 2017 del settimanale “TIME” dedicato alle «25 migliori invenzioni del 2017» che si parla di JIBO (il primo robot destinato alle famiglie): la macchina sempre più umana e sempre meno oggetto.

«Jibo is different – it’s not just that he – and I use the term he here, because that’s how Jibo refers to himself – looks like something straight out of a Pixar movie, with a big, round head and a face that uses animated icons to convey emotion […] Jibo seems downright human in a way that his predecessors do not.We want people to look at Jibo and realize he’s someone and not something”, says Matt Revis, the company’s vice president of product management. And while that technology may seem merely amusing – or creepy, depending on your point of view – it could fundamentally reshape how we interact with machines» (Jibo è diverso – non è solo che lui – e uso il termine lui qui, perché è così che Jibo si riferisce a se stesso – sembra qualcosa uscito direttamente da un film della Pixar, con una grande testa rotonda e una faccia che usa icone animate per trasmettere emozioni […] Jibo sembra decisamente umano in un modo che i suoi predecessori non fanno. “Vogliamo che le persone guardino Jibo e si rendano conto che sia qualcuno e non qualcosa”, afferma Matt Revis, vicepresidente della gestione prodotti dell’azienda. E mentre quella tecnologia può sembrare semplicemente divertente – o inquietante, a seconda dei punti di vista – potrebbe fondamentalmente rimodellare il modo in cui interagiamo con le macchine).

Gli impatti etici, sociali, filosofici e legali saranno molto importanti. La comparsa di agenti autonomi, titolari di autonoma soggettività modificherà sensibilmente il nostro modo di pensare. Questo significa che i principi fondamentali dei diritti nazionali saranno soggetti a sostanziali modifiche, sarà dunque necessario aggiungere ed integrare questi “nuovi agenti” nella teoria generale del diritto.

 

  1. La quarta rivoluzione industriale e il dibattito collettivo

In materia di AI si è dunque aperto un dibattito globale concretizzatosi nella predisposizione di una piattaforma online The Future Society at Harvard Kennedy School (https://assembl-civic.bluenove.com/ai-consultation/home) per facilitare il dialogo e la discussione sull’intelligenza artificiale. Un dibattito, iniziato nel settembre del 2017 e che si concluderà il 31 marzo 2018 (attualmente nella sua seconda fase), in cui si può contribuire in inglese, francese e giapponese e che coinvolge attivamente cittadini, professionisti, esperti mondiali e ricercatori che lavorano sull’intelligenza artificiale, robotica, affari informatici, politica pubblica, relazioni internazionali ed economia.

L’obiettivo è di innescare un dialogo sulle dinamiche e sulle conseguenze dell’aumento dell’AI e di come governare l’attuale rivoluzione tecnologica. La piattaforma di intelligence collettiva sintetizzerà le idee e le proposte principali, che a loro volta saranno utilizzate per fornire soluzioni e strumenti politici attuabili per la governance internazionale dell’AI.

Nella stessa direzione si sta muovendo l’Unione europea che dopo la risoluzione del Parlamento europeo del 16 febbraio 2017 in cui i membri del Parlamento hanno invitato la Commissione europea a presentare, sulla base dell’art. 114 del TFUE, una proposta di direttiva sulle norme di diritto civile in materia di robotica, la Commissione giuridica (JURI) del Parlamento ha deciso di organizzare una consultazione pubblica sul futuro della robotica e dell’intelligenza artificiale che si è conclusa il 1 giugno 2017.

Sono state ricevute 298 risposte e tutti i risultati della consultazione, si legge nel comunicato pubblicato l’8 dicembre 2017 sul sito del parlamento europeo, «confluiranno nella relazione del Servizio Ricerca del Parlamento europeo intitolata “Cost of Non-Europe on Robotics and Artificial Intelligence Report” (relazione sul costo della non Europa in materia di robotica e intelligenza artificiale), di prossima pubblicazione, e saranno d’aiuto al Parlamento europeo nell’affrontare le questioni etiche, economiche, giuridiche e sociali che si pongono nel settore della robotica e dell’intelligenza artificiale per uso civile».

 

  1. L’impulso alla regolamentazione europea dato dalla Risoluzione di febbraio

Quattro i temi fondamentali affrontati nella Risoluzione del 16 febbraio 2017: (i) la responsabilità per eventuali danni, (ii) uno status giuridico dei robot come “persone elettroniche”, (iii) l’affezione e le possibili dipendenze emotive degli esseri umani rispetto ai robot dotati di una autonoma capacità di apprendimento e (iv) la problematica della disoccupazione quale conseguenza della robotizzazione.

Il Parlamento ritiene in primo luogo che le manifestazioni di AI rappresentino una nuova rivoluzione industriale «rendendo imprescindibile che la legislazione ne consideri le implicazioni e le conseguenze legali» per cui è di fondamentale importanza «creare una definizione generalmente accettata di robot e di intelligenza artificiale» flessibile e che non sia di ostacolo all’innovazione (considerando B. e C.).

Considera di fondamentale importanza che gli esseri umani abbiano il controllo sulle macchine intelligenti in ogni momento («[…] gli sviluppi nel capo della robotica e dell’intelligenza artificiale possono e dovrebbero essere pensati in modo tale da preservare la dignità, l’autonomia e l’autodeterminazione degli individui […]» considerando O.) soprattutto nella prospettiva che nel lungo termine l’AI superi «la capacità intellettuale umana» (considerando P.).

Ritiene che nell’attuale quadro giuridico vi sia un vuoto normativo che neppure la normativa sulla responsabilità da prodotto difettoso è in grado di colmare, riguardante i danni causati da un robot laddove quest’ultimo abbia preso decisioni autonome, ragion per cui considera essenziale una regolamentazione sugli aspetti legati alla responsabilità giuridica «derivante dall’azione nociva di un robot» posto che «più i robot sono autonomi, meno possono essere considerati come meri strumenti nelle mani di altri attori (quali il fabbricante, l’operatore, il proprietario, l’utilizzatore, ecc.)» (considerando Z., AA., AD, AE).

Sulla scorta di tale assunto reputa opportuno che debba sussistere un sistema generale per la registrazione dei robot (principi generali – art. 2) così come una “scatola nera” in dotazione ai robot più sofisticati in grado di registrare i dati su ogni operazione, «compresi i passaggi logici che hanno contribuito alle sue decisioni» (principi etici – art. 12.). Parimenti ravvisa che un sistema di assicurazione obbligatoria integrato da un fondo per garantire la possibilità di risarcire i danni in caso di assenza di copertura assicurativa, come avviene per le auto, possa essere una soluzione concreta al tema della responsabilità civile (responsabilità – artt. 57, 58).

Invita inoltre la Commissione a valutare la possibilità di istituire uno status giuridico specifico «per i robot […] in modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendano decisioni autonome o che interagiscano un modo indipendente con terzi» (responsabilità – art. 59f)). Avremo quindi una “capacità giuridica” ed una “capacità d’agire” di nuova generazione, poi sarà interessante capire come i robot in via autonoma siano in grado di un risarcimento in forma specifica o di un’obbligazione di fare o non fare.

Si è altresì sottolineata l’importanza di affrontare la possibilità che nasca un attaccamento emotivo tra gli uomini e i robot soprattutto per le categorie più vulnerabili (bambini, anziani e disabili) con le connesse questioni aperte riguardo all’impatto «emotivo e fisico che un tale attaccamento potrebbe avere sugli uomini» (principi generali – art. 3). La connessione emotiva tra umani e robot è un aspetto già attuale: si pensi al robot Jibo, di cui si è accennato, creato per interagire con l’ambiente familiare e diventarne un componente.

Rispetto all’invecchiamento generale della popolazione (per cui si stima che nel 2025 oltre il 20% dei cittadini europei avrà un età uguale o superiore a 65 anni e si assisterà ad un aumento particolarmente rapido di coloro che avranno più di 80 anni), si ritiene che l’uso dei robot per l’assistenza agli anziani sarà sempre più diffuso e più mirato nel campo della riabilitazione (anche cognitiva). Ciò comporterà una ulteriore integrazione tra essere umano e robot laddove ai primi viene in ogni caso riconosciuto un ruolo principale e non completamente sostituibile dagli assistenti robotizzati.

Si è osservato che l’uso dei robot consentirebbe «di liberare le persone dalla monotonia del lavoro manuale, consentendo loro di avvicinarsi a mansioni più creative e significative» e, allo stesso tempo, potrebbe comportare una maggiore automazione per le mansioni meno qualificate con una conseguente trasformazione del mercato del lavoro delle politiche sociali[9]. Sulle questioni lavoristiche c’è ancora molta incertezza, recentemente Neil Jacobstein – professore di intelligenza artificiale della Singularity University – ha parlato di reddito universale, ritenendo che si dovrà usare «la ricchezza creata dall’intelligenza artificiale e redistribuirla a chi perde il lavoro».

 

  1. Il copyright[10]

Con riguardo al campo della proprietà intellettuale e di quanto l’AI sia in grado di creare in via autonoma, i membri hanno invitato la Commissione a sostenere un approccio orizzontale e tecnologicamente neutrale nei confronti della proprietà intellettuale applicabili ai vari settori in cui la robotica potrebbe essere impiegata.

In campo medico si suggerisce espressamente di introdurre l’obbligo per i produttori di avanzati dispositivi salvavita di fornire ad appositi enti di fiducia indipendenti oltre alle istruzioni relative alla progettazione dei dispositivi i codici sorgente, come accade per il deposito legale di una pubblicazione presso la biblioteca nazionale. Anche per le protesi robotiche deve essere garantito l’accesso continuo e sostenibile alle manutenzioni, migliorie e agli aggiornamenti software.

La possibilità di accedere liberamente ai codici sorgente è altresì esplicitato nell’allegato alla Risoluzione riguardo ad eventuali incidenti e danni causati dai robot intelligenti per garantirne il funzionamento ininterrotto, la disponibilità, l’affidabilità e la sicurezza di tali sistemi.

L’orientamento, quindi, non limitato al capo biomedico, sembrerebbe propendere per nuove eccezioni ai monopoli industrialistici, nel più ampio solco secondo cui formule, principi, piani terapeutici etc. non possono essere oggetto di privativa autorale o brevettuale.

Come sappiamo, la creatività computazionale consente al computer di produrre opere d’arte originali[11], ma la domanda ancora in sospeso è la seguente: chi può essere considerato come l’autore di esso? L’umano che ha creato la macchina, il proprietario della macchina o la macchina stessa?[12]

Attualmente le macchine sono cose, non hanno diritti quindi, almeno con riguardo alle norme nazionali, non sono autori e non dispongono dei relativi diritti sulle opere eventualmente realizzate. Né esiste un principio codificato per cui il proprietario della macchina acquista a titolo derivativo ma in via immediata e diretta i diritti di sfruttamento economico della creazione “intellettuale”. Nel sistema interno autore, quindi titolare della paternità dell’opera e dei relativi diritti morali, è solo una persona fisica; questo significa che le creazioni realizzate esclusivamente da una macchina non hanno i requisiti per essere assoggettate alla legge sul diritto d’autore[13].

Potremmo arrivare a sostenere che nel nostro ordinamento le opere create esclusivamente da AI, trattandosi di opere prive di una paternità, sono liberamente utilizzabili da chiunque[14] oppure sono equiparabili alla opere orfane e quindi, attraverso un’interpretazione estensiva, farle rientrare nel novero del d.lgs.  10 novembre 2014, n. 163, in attesa non tanto che il titolare del diritto d’autore si palesi e rivendichi l’opera considerata orfana, bensì che la legge colmi il vuoto normativo relativo all’individuazione del titolare dei diritti delle opere create direttamente ed esclusivamente da AI.

Ancora diverso è il caso di interazione tra macchina e persona fisica, laddove l’opera sia il risultato, indipendentemente dalla sua casualità, della “collaborazione” tra la macchina e il suo proprietario. Si pensi al caso che ha fatto tanto discutere gli Stati Uniti (il selfie del macaco che ben potrebbe essere un esempio concreto delle problematiche connesse al copyright creato da AI se al posto della scimmia ci fosse stato un robot[15]). Molti sostengono che sarebbe ragionevole che il proprietario della macchina fosse anche il titolare della creazione dell’opera intellettuale[16] (una declinazione del principio “possesso vale titolo” disciplinato dall’art. 1153 cod. civ.)[17] – almeno per i diritti patrimoniali di sfruttamento dell’opera – soprattutto nei casi in cui il contributo dell’essere umano sia eziologicamente connesso alla creazione intellettuale, tuttavia escludere a priori dal novero dei titolari dei diritti di sfruttamento economico delle suddette creazioni i progettisti della macchina potrebbe essere penalizzante per coloro che supportano e investono sulla valorizzazione delle creazioni intellettuali. In ogni caso, in materia autorale, l’acquisto a titolo originario può avvenire unicamente al momento della creazione dell’opera e solo da parte di una persona fisica, regola che collide con la previsione contemplata nella citata norma civilistica che presuppone che per l’acquirente a non domino l’acquisto è a titolo originario[18].

La questione rileva anche dal punto di vista delle invenzioni brevettabili, può una macchina essere titolare di un brevetto o quest’ultimo compete di diritto al suo proprietario? Pur non esistendo un divieto espresso di non brevettabilità delle invenzioni create dall’AI, l’individuo resta l’unico soggetto al quale è riconosciuto il diritto morale sull’invenzione.

Rendere liberamente accessibili opere realizzate in tutto o in parte dai sistemi di AI se da un lato comporterebbe una ancora più massiva fruibilità di tali creazioni con la conseguente limitazione di un controllo monopolistico da parte dei produttori, dall’altro lato riconoscere e consolidare la protezione autorale permetterebbe uno stimolo a tali creazioni; temi alla base di un dibattito molto più ampio in materia di copyright tanto da richiedere un approfondimento specifico.

[1] La parola “robot” ha origine dal dramma di K. Čapek del 1921, intitolato, RUR (Rossum’s Universal Robots), dal termine ceco “robota” che letteralmente significa “lavoro forzato” (cfr. nota n. 23 M.C. Carrozza, I Robot e noi, Bologna, 2017).

[2] J. Kaplan, Intelligenza artificiale Guida al futuro prossimo, Roma, 2017, 31 «L’uso originario dell’espressione “intelligenza artificiale” può essere attribuito a un individuo specifico, John McCarthy, che nel 1956 era un assistente universitario di matematica al Dartmouth College di Hanover, New Hamphsire. Insieme a altri tre ricercatori […], McCarthy organizzò a Dartmouth un convegno estivo sull’argomento […] La richiesta di fondi originale, […], affermava che “Lo studio procederà sulla base della congettura che tutti gli aspetti dell’apprendimento o qualsiasi altra caratteristica dell’intelligenza possa essere di principio descritta in modo così preciso che una macchina la possa simulare […] McCarthy scelse per la conferenza l’espressione intelligenza artificiale, in parte per distinguere il lavoro suoi e dei suoi colleghi dal più consolidato campo della cibernetica – “lo studio scientifico del controllo e della comunicazione nell’animale e nella macchina” […]».

[3] J. Kaplan, Intelligenza artificiale Guida al futuro prossimo, cit., 15 «Ecco una domanda a cui è sia facile che difficile rispondere, per due ragioni: la prima è che non c’è comune accordo su cos’è l’intelligenza artificiale. La seconda è che ci sono poche ragioni, almeno al momento, per ritenere che l’intelligenza delle macchine abbia molto in comune con quella umana», 21 «La mia opinione personale sul significato dell’IA è la seguente: l’essenza dell’IA – in effetti, l’essenza dell’intelligenza – è la capacità di fare generalizzazioni appropriate in m odo tempestivo e su basi dati limitata».

[4] M.C. Carrozza, op. cit.

[5] Le Monde Hors Série, Futur les avancées technologiques , Février, 2013.

[6]http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+REPORT+A8-2017-0005+0+DOC+XML+V0//IT

[7] L.B. Solum, Legal Personhood for Artificial Intelligences , Illinois Public Law and Legal TheoryResearch Papers, Series No. 09-13 March 20, 2008.

[8] L. Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Milano, 2017.

[9] M. Ford, Il futuro senza lavoro. Accelerazione tecnologica e macchine intelligenti. Come prepararsi alla rivoluzione economica in arrivo, Milano, 2017

[10] A. Levendowski, How copyright Law can fix Artificial Intelligence’s implicit bias problem, 2017 in Technology Law and Policy Clinical Teaching Fellow, New York University School of Law and Research Fellow, NYU Information Law Institute; L’Intelligence artificielle et le droit d’auteur , 2017, OMPI Magazine.

[11] Si pensi all’opera intitolata “The Next Rembrandt”. Si tratta di un dipinto 3D generato dal computer che utilizza un algoritmo di riconoscimento facciale. Sono stati necessari diciotto mesi di lavoro per produrre questo quadro dopo che sono state scansionate 346 opere conosciute del pittore olandese. É un’opera formata da 148 milioni di pixel, il ritratto è stato realizzato con 168.263 frammenti presi dal lavoro dell’artista e conservati in un database progettato per questo scopo. Il progetto ha beneficiato della sponsorizzazione del gruppo bancario olandese ING, in collaborazione con Microsoft, della società di consulenza marketing J. Walter Thompson e dei consulenti della Delft University of Technology, della Mauritshuis e del Rembrandt House Museum (https://www.jwt.com/en/work/thenextrembrandt). Nello stesso modo, sempre nel 2016, una breve storia scritta da un programma per computer giapponese ha superato la prima fase della selezione di un premio letterario nazionale (https://www.digitaltrends.com/cool-tech/japanese-ai-writes-novel-passes-first-round-nationanl-literary-prize). Infine, la società di intelligence artificiale Deep Mind, acquistata da Google, ha creato un software in grado di produrre musica partendo dall’ascolto delle registrazioni (https://techcrunch.com/2016/09/09/googles-wavenet-uses-neural-nets-to-generate-eerily-convincing-speech-and-music).

[12] – Artificial Intelligence and the Law – https://academic.oup.com/itnow/article-abstract/59/1/36/3061291.

[13]L’Intelligence artificielle et le droit d’auteur, cit.: «[…] Il semblerait cependant que, dans de nombreux pays, la législation ne soit pas disposée à protéger par le droit d’auteur des œuvres qui n’auraient pas été créées par un être humain. Aux États-Unis d’Amérique par exemple, le bureau national du droit d’auteur a déclaré que seules des œuvres originales créées par un être humain pourraient prétendre à une protection par le droit d’auteur. Cette position découle de la jurisprudence (affaire Feist Publications c. Rural Telephone Service Company, Inc. 499 U.S. 340 (1991)) aux termes de laquelle le droit d’auteur protège uniquement le fruit d’un travail intellectuel fondé sur le pouvoir créateur de l’esprit. De manière analogue, dans une récente affaire se déroulant en Australie (Acohs Pty Ltd c. Ucorp Pty Ltd), un tribunal a déclaré qu’une œuvre créée au moyen d’un ordinateur ne pouvait faire l’objet d’une protection par le droit d’auteur car elle n’avait pas été réalisée par un humain.En Europe, la Cour de justice de l’Union européenne a également affirmé à plusieurs reprises, notamment dans un arrêt historique rendu dans l’affaire Infopaq (C-5/08 Infopaq International A/Sc. Danske Dagbaldes Forening), que le droit d’auteur ne s’appliquait qu’à des œuvres originales et que l’originalité allait de pair avec “une création intellectuelle propre à son auteur.” Cette décision est généralement interprétée comme signifiant qu’une œuvre originale doit être le reflet de la personnalité de son auteur, ce qui signifie qu’une intervention humaine est indispensable pour qu’une œuvre puisse être protégée par le droit d’auteur».

[14]L’Intelligence artificielle et le droit d’auteur, cit.: «[…] En théorie, on pourrait considérer que ces créations ne sont pas visées par le droit d’auteur puisqu’elles n’ont pas un être humain pour auteur. Tout le monde pourrait alors les utiliser et les réutiliser en toute liberté, ce qui serait une très mauvaise nouvelle pour les sociétés qui les commercialisent. Imaginez avoir investi des millions dans un système capable de créer de la musique pour jeux vidéo pour vous rendre compte au final que cette musique ne peut être protégée par le droit d’auteur et que n’importe qui dans le monde peut l’exploiter gratuitement […]».

[15] «Nel 2011 il fotografo David Slater, durante un viaggio in Indonesia per un servizio fotografico sui macachi cinopitechi (Macaca nigra), decise di lasciare la propria macchina fotografica su un treppiedi lasciando il comando a distanza dello scatto inserito, a disposizione dei macachi. Una femmina schiacciò più volte il dispositivo scattando diverse fotografie: molte risultarono non utilizzabili, ma alcune presentavano invece chiare inquadrature del macaco, che Slater distribuì chiamandole “autoscatto del macaco”. Il fotografo vendette le foto all’agenzia di stampa Caters, rivendicandone il copyright sul presupposto di aver manipolato le fotografie e di aver pertanto avuto “l’idea di lasciare i macachi giocare con la macchina fotografica, sapendo che sarebbe stato verosimile che le scimmie lo avrebbero fatto e prevedendo che alla fine avrebbero fatto degli scatti”. Le fotografie vennero successivamente caricate nell’archivio multimediale di Wikimedia Commons, un sito che accetta solo file multimediali disponibili con licenza libera, di pubblico dominio o altrimenti con diritto d’autore ineleggibile. Sul sito le fotografie vennero taggate con licenza di pubblico dominio, sul presupposto che erano state create da un animale, e non dall’uomo. l fotografo Slater chiese allora alla Wikimedia Foundation, proprietaria di Wikimedia Commons, di pagare per mantenere le fotografie o di rimuoverle dal sito, rivendicando il copyright sulle fotografie stesse. La richiesta venne respinta dall’organizzazione, la quale affermava che le fotografie non avessero alcuna proprietà del copyright, dal momento che il creatore delle fotografie era una scimmia.» (Wikipedia – autoscatto del macaco). Peta – People for the Ethical Treatment of Animals –  al fine di chiedere l’assegnazione del copyright alla scimmia e l’amministrazione del diritto d’autore ad essa stessa, decise fare causa al fotografo nel 2015. Nel 2016 una corte federale della California diede ragione al fotografo con la motivazione che le leggi americane sul copyright non prevedono di essere applicate a una scimmia. Alla fine Slater ha patteggiato di donare il 25% dei futuri guadagni derivanti dalla vendita della foto – il cui copyright gli rimane in appannaggio – ad associazioni protezioniste del Macaco.

[16] Principio applicabile in base al diritto d’autore anglosassone, difatti l’art. 9.3 del Copyright Designs and Patents Act 1988 prevede espressamente che «In the case of a literary, dramatic, musical or artistic work which is computer – generated, the author shall be taken to be the person by whom the arrangements necessary for the creation of the work are undertaken» e nel successivo art. 178 è esplicitato che «computer-generated’ means the work is generated by computer in circumstances such that there is no human author of the work».

[17]Contra Cass. civ., sez. I, 3 gennaio 2017, n. 39 la Corte di legittimità ha ritenuto impossibile nel diritto d’autore la consegna fisica dell’opera posto che laddove questa vi sia si riferisce esclusivamente al supporto materiale su cui la creazione è estrinsecata. «Non è configurabile l’acquisto a titolo originario di un’opera immateriale dell’ingegno, nella specie cinematografica, in base ad un titolo astrattamente idoneo per effetto del possesso di buona fede, ai sensi dell’art. 1153 c.c., a ciò ostando il carattere particolare del diritto d’autore, che trova fondamento unicamente nell’atto creativo e realizzativo dell’idea, per il trasferimento del quale non si richiede una consegna, perché questa, anche ove ricorra, si riferisce all’oggetto materiale in cui l’opera si estrinseca, senza però mai immedesimarsi in essa» (commentata in Il diritto industriale, 1, 2018, 59). In senso conforme: Cass. Civ., sez. I, 29 dicembre 2011, n. 30082.

[18] M. Fabiani, Esecuzione forzata e sequestro delle opere dell’ingegno , Milano, 1958.

Share this article!

Share.

About Author

Leave A Reply