Dal principio del consenso informato al Trust-Based Consent, una possibile traiettoria evolutiva

Obiettivo di questo contributo è analizzare la misura in cui l’attuale declinazione “espertocratica” di (Trust)worthiness delineata dall’AI Act, riesca a garantire, oltre che a “comunicare” il rispetto di un principio cardine della visione umano-centrica dell’ AI: la sovranità della decisione umana, intesa (anche) come autonomia decisionale degli Human Recipients (HRs) nella definizione dell’ an e del quomodo dello sviluppo di determinati sistemi di AI e delle relative modalità computazionali, in determinati contesti d’uso. Dopo aver condotto una parallela analisi degli strumenti di tutela ex post previsti dal GDPR, nonché delle criticità dell’attuale processo di redazione del GPAI-Code of Practice, si argomenterà come, la denaturalizzazione della visione dell’AI come prodotto, sia precondizione per la costruzione di quello che definiamo «Trust Based Consent»: un modello decisionale, alternativo all’approccio espertocratico, che, recuperando il ruolo chiave della “fiducia” come processo bidirezionale e iterativo, riconosca il coinvolgimento democratico degli HRs nella definizione ex ante dell’ammissibilità in concreto del rischio per i diritti fondamentali che si è disposti ad accettare, collegando le scelte di progettazione sviluppo ed implementazione ai valori e agli standard specifici delle “comunità ospitanti”.

With the aim of tracing an evolutionary pathway from informed consent to a broader notion of “Trust-Based Consent”, this paper examines the limits of the current “expertocratic” framing of (Trust)worthiness in the AI Act. It asks whether, and to what extent, such a framework can genuinely guarantee, rather than merely “communicate”, the normative foundations of a human-centric approach to AI. At its core lies the principle of human decision-making sovereignty, understood also as the autonomy of Human Recipients (HRs) to take part in decisions on the concrete admissibility of risks to fundamental rights posed by the AI systems with which they are expected, willingly or not, to interact, as well as by the associated computational configurations. Through a parallel analysis of the ex post safeguards under the GDPR and the critical issues of the GPAI Code of Practice drafting process, the paper argues that de-naturalizing the view of AI as a product is crucial to enabling an alternative governance model, grounded in democratic participation of HRs. Such a model should reclaim trust as a bidirectional and iterative process, linking the design and implementation of AI systems to the specific norms, values, and standards of host communities across the entire AI value chain.

 

Share this article!
Share.