L’Algoretica e altri 5 buoni motivi per cui abbiamo bisogno di una Legge sull’Intelligenza Artificiale

0

Mentre scrivo questo articolo ho un piccolo robottino rotondo apparentemente innocuo che mi scivola intorno pulendo il pavimento di casa. In pratica, sta utilizzando decine di sensori che alimentano modelli di Artificial Intelligence (AI) pre-addestrati secondo logiche a me sconosciute e con ogni probabilità poco trasparenti, e che producono i loro risultati in parte nei microchip del robot stesso ed in parte su una rete di server sparsi per il mondo con cui il robot scambia dati in tempo reale. Mi chiedo quali e quante informazioni possano essere ricavate da quei dati, e non riuscendo a darmi alcuna risposta, mi convinco che abbiamo un estremo bisogno di un’etica degli algoritmi, la così detta “Algoretica”, e forse è proprio necessario che sia una Legge a suggerirci di metterla in pratica.

Nell’Aprile del 2021 si è iniziato a parlare della proposta di un AI Act, cioè una regolamentazione Europea per l’AI. Il ciclo di emanazione di questo regolamento è ormai in stadio avanzato (alla data in cui scrivo esiste un testo adottato, in prima lettura, dal Parlamento Europeo), e vale la pena di chiedersi quali siano i benefici che una regolamentazione di questo tipo possa portare alla nostra economia, ma soprattutto a noi cittadini e alla nostra quotidianità. In questo articolo ve ne racconto sei, senza la pretesa di essere esaustivo.

  1. La creazione di un Mercato Libero Europeo per i Prodotti di AI

L’Unione Europea come la conosciamo oggi è nata da una idea estremamente semplice che mirava alla realizzazione di un meccanismo di efficacia imprescindibile: la necessità di costruire uno spazio di mercato libero con regole condivise in cui fosse semplice scambiare beni e servizi semplificando la vita ai produttori ed agli utilizzatori.

L’AI ACT muove in questa stessa direzione stabilendo regole per la commercializzazione e la messa in esercizio dell’AI entro il perimetro europeo utilizzando, fra l’altro, strumenti simili e già noti alla cittadinanza, come il marchio CE. In effetti, per un sottoinsieme di prodotti di AI considerati meritevoli di approfondimento, poiché messi in esercizio in ambiti considerati delicati[1], l’AI Act prescrive l’apposizione del marchio CE sulla documentazione tecnica dei sistemi di AI, a riprova del fatto che le attività di sviluppo e di esercizio del prodotto di AI sono condotte secondo le regole comunitarie.

Un Mercato Libero dell’Intelligenza Artificiale stabilisce regole condivise e pone le basi per la crescita coordinata dell’economia dell’intero continente in questo ambito.

  1. Incremento dei prodotti di AI e miglioramento del loro funzionamento

La costruzione di un Mercato libero porta ad avere più regole, ma anche a standardizzare i cicli di produzione dei prodotti, aumentandone la disponibilità. Dovremmo aspettarci sempre più prodotti di AI e sempre più sicuri, poiché prodotti e testati secondo regole standardizzate. Nessuno ha paura di utilizzare un asciugacapelli che riporta il marchio CE, poiché ha seguito cicli di produzioni standard ed una serie di controlli rigidi che ne assicurano il corretto funzionamento nel suo ciclo di vita. I prodotti di AI avranno queste stesse caratteristiche, portando più sicurezza agli utilizzatori e creando un nuovo tipo di lavoro per coloro che dovranno testarli e garantirne l’efficacia nel tempo.

Molto spesso questa maturità tecnica non è ancora stata raggiunta. I prodotti di AI si incagliano, generano errori, producono risultati fuorvianti. C’è ancora tantissima strada da fare per arrivare ad avere implementazioni fluide, esaustive ed efficaci. La regolamentazione aiuterà moltissimo a percorrerla.

 

  1. La creazione di nuovi posti di lavoro ad elevata qualifica

L’imposizione di nuove regole richiede che queste vengano implementate sull’intero perimetro europeo entro una scadenza prefissata (ancora non nota, è possibile ipotizzare un periodo di 2-3 anni per adeguarsi alle nuove norme). Questo richiede una forza lavoro aggiuntiva ed estremamente qualificata, vista la complessità dell’ecosistema dell’AI.

Molti di noi hanno conosciuto la potenza computazionale di ChatGPT e nonostante sia uno strumento privo di qualsivoglia capacità predittiva del futuro, alla domanda «Di quali figure professionali abbiamo bisogno per adeguarci all’AI ACT?», considero la sua risposta piuttosto completa:

  1. Esperti di AI,
  2. Data Scientists,
  3. Eticisti dell’AI,
  4. Avvocati specializzati in tecnologia,
  5. Ingegneri del Software,
  6. Consulenti aziendali.

Mi permetto una integrazione all’output di ChatGPT: confido sulla necessità di istruire dei Legal Data Scientists che dispongano di un background legale sufficiente a corredo delle loro immancabili capacità di analisi, per mettere criticamente in discussione quanto sia tecnicamente realizzabile, da quanto sia legalmente concesso fare. Ci sarebbe, poi, un ulteriore spunto che dovrebbe portarci a chiedere se quanto stiamo realizzando sia etico, ma a questo ha già risposto ChatGPT con la terza figura professionale che ha individuato.

 

  1. Maggiore tutela per i diritti dei cittadini

L’AI ACT ci tutela come persone e come cittadini europei. In primo luogo, introduce una serie di prodotti di AI la cui messa in esercizio è proibita. Per l’elenco esaustivo di questi prodotti, occorrerà attendere l’approvazione del Regolamento, ma con ogni probabilità vi sarà un forte ridimensionamento della possibilità di effettuare riconoscimento biometrico in tempo reale negli spazi pubblici e l’impossibilità di generare punteggi sociali “general purpose sulla base del comportamento delle persone. Non so dirvi se questo scongiurerà del tutto il pericolo di ritrovarci con un “Grande Fratello” che ci monitora, ma sicuramente sono provvedimenti che vanno nella direzione di limitare questa eventualità.

In generale l’AI ACT impone di associare ad ogni possibile prodotto di AI un livello di rischio, e definisce le regole da adottare per ognuno di questi livelli. Per i prodotti di AI ad alto rischio introduce regole di controllo sui dati e richiede, fra le altre cose, che gli utilizzatori siano messi nelle condizioni di conoscere il livello di equità del prodotto (fairness) e le logiche alla base degli output che genera (explainability).

Se pensiamo a fairness ed explainability come a requisiti del legislatore, questi diventano molto rapidamente gli incubi per i Data Scientist, in quanto implementare questi requisiti può arrivare a snaturare di molto le performance degli algoritmi che sviluppano, allontanandoli dal tanto agognato “ottimo matematico” che rappresenta il più alto livello di accuratezza raggiungibile da un algoritmo. Inoltre, va ricordato che le implementazioni dei requisiti etici possono essere estremamente complesse da un punto di vista tecnico. Questo sforzo va però in una direzione più astratta e filosoficamente elevata: la direzione è quella della ricerca di un “ottimo legale” e di un “ottimo etico” che prevalgono sull’”ottimo matematico” e al quale un Legal Data Scientist dovrebbe imparare a tendere.

 

  1. Maggiore valore per i dati creati con ingegno umano

La tutela non deve andare solo nella direzione delle persone, ma anche del lavoro delle persone. È facile dimenticarsi che un prodotto di AI è addestrato su dati storici. Un prodotto di AI che genera immagini ha osservato milioni di immagini; un prodotto di AI che genera testi (ad es. ChatGPT) è addestrato su terabyte di testi. Tutti questi testi e queste immagini non si creano da sole[2]. E questo vale per ogni tipologia di dato che è frutto dell’ingegno umano. Esiste uno spiccato tema che guarda alla tutela delle opere dell’ingegno umano, e dunque alla proprietà intellettuale dei dati che vengono utilizzati per addestrare i sistemi di AI e che molto spesso non godono di alcun tipo di tutela, pur avendo un valore immenso (senza questi dati non è possibile addestrare gli algoritmi). La regolamentazione dell’AI va nella direzione di assegnare importanza anche a questi dati implementando logiche di trasparenza e di filiera sulla provenienza dei dati di addestramento. Mi auguro che sia il momento giusto per attribuire importanza e valore, anche economico a questi artefatti dell’ingegno umano, benché essi siano digitali e spesso liberamente accessibili sul web.

 

  1. L’Algoretica

L’algoretica[3], rimasta fino ad ora una interessantissima disciplina di ricerca, diventa la soluzione reale per indirizzare i requisiti imposti dall’AI ACT mettendoci davanti alla constatazione che la scienza dei dati non è più solo appannaggio di quelle figure tecniche che, giocando abilmente con i dati, sono in grado di produrre algoritmi brillanti e super-efficaci. In particolare, sarà indispensabile saper eseguire una serie di nuove attività, qual ad esempio chiedersi se i dati di cui disponiamo possono essere utilizzati per la finalità predittiva dell’algoritmo che stiamo sviluppando[4], e verificare che il prodotto di AI che è stato costruito rispetti i requisiti di fairness ed explainability.

Risulta evidente come queste attività richiedano sensibilità multidisciplinari, l’ottimizzazione matematica del modello non può più prescindere dall’attenzione ai requisiti legali ed all’attenzione all’etica dei risultati prodotti. In quest’ottica, possiamo pensare all’AI ACT come allo strumento per l’avvento di un nuovo umanesimo degli algoritmi in cui l’efficienza matematica dell’AI è utilizzata per preservare l’etica e rimettere al centro il ruolo delle persone.

[1] I lettori possono farsi un’idea di questi ambiti approfondendo l’allegato III alla proposta di “Regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’Intelligenza Artificiale”. Questi contenuti sono stati emendati ed ampliati nel testo di legge, alla data di pubblicazione ancora in discussione presso le funzioni legislative europee, ma riflettono una idea sufficientemente rappresentativa degli ambiti che il legislatore considera “delicati” per la tutela dei diritti degli interessati. https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0006.02/DOC_2&format=PDF.

[2] O almeno non ancora. Esiste un interessantissimo filone sulla costruzione di algoritmi in grado di generare dati artificiali (o dati sintetici). Tuttavia, anche questi algoritmi hanno bisogno di dati veri per essere addestrati la prima volta, quindi il problema si ripropone tale e quale.

[3] Un utile riferimento sul tema si trova in: P. Benanti –The Urgency of an Algorethics, in Discover Artificial Intelligence, 3-11, 2023,  https://link.springer.com/article/10.1007/s44163-023-00056-6.

[4] Questo è un requisito legale già vigente entro il perimetro del GDPR, e che verrà ulteriormente ampliato dall’AI ACT. Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation)

Share this article!
Share.

About Author

Leave A Reply