L’Intelligenza Artificiale rappresenta un tema di grande attualità che occupa uno spazio crescente nel dibattito pubblico. Le ragioni sono diverse. Innanzitutto, si tratta di una tecnologia in rapidissima evoluzione, per cui emergono quasi a getto continuo nuovi modelli e nuove applicazioni, le cui potenzialità non sembrano ancora prevedibili, se non altro per il grande pubblico. Proprio la rapidità dell’evoluzione e l’incertezza sulle modalità di applicazione fa nascere interrogativi di diversa natura, non ultimo quelli sui possibili rischi legati alla diffusione e all’uso massivi di questo tipo di tecnologia.
Sul piano che qui più ci interessa, quello giuridico, gli interrogativi riguardano in particolare le possibili violazioni dei diritti fondamentali degli utenti, come per esempio il diritto alla privacy, legati al funzionamento stesso dei modelli di Intelligenza Artificiale, in particolare nella loro versione “generativa”, come il celebre ChatGPT o Google Gemini.
Per far fronte a tali possibili rischi è in corso di adozione un regolamento dell’Unione Europea, chiamato Artificial Intelligence Act, che intende disciplinare la materia.
Occorre specificare che per “Intelligenza Artificiale” intendiamo software (tecnicamente, chatbot) in grado, a ogni nuova operazione, di tenere conto delle analisi svolte in precedenza e dei risultati ottenuti. In questo senso, a differenza di un software classico, che opera sempre allo stesso modo, la capcità di un sistema “intelligente” può cambiare nel tempo, aggiornandosi proprio sulla base delle informazioni che esso è riuscito a raccogliere durante il suo funzionamento. Si parla quindi di “autonomia” dei sistemi “intelligenti”, che è proprio il punto che suscita le preoccupazioni alla base dell’interessamento dell’Unione Europea.
I sistemi “intelligenti” sollevano anzitutto preoccupazioni di natura “etica” o “sociale”. Essi sono infatti in grado di “collezionare” informazioni sensibili degli individui (relative, per esempio, al genere o all’appartenenza politica), rispetto alle quali si pone un problema di tutela della privacy. È necessario, in altri termini, fare in modo che queste stesse informazioni non vengano diffuse senza il consenso dell’interessato. Inoltre i sistemi “intelligenti” si basano su complessi algoritmi, formulati sulla base di scelte operate dagli elaboratori, cioè da chi crea questi stessi sistemi. C’è quindi il rischio che il sistema intelligente generi delle “discriminazioni”, o meglio, che erediti delle discriminazioni contenute nei cosiddetti “dati di addestramento”, ovvero dalle scelte operate dagli elaboratori. Pensiamo, per esempio, a un modello di IA utilizzato per filtrare le richieste presentate da quanti aspirino a una determinata posizione lavorativa; poniamo, un chatbot usato da un ristoratore in cerca di nuovo personale per il suo ristorante. Supponiamo che questo sistema si basi su algoritmi elaborati operando delle “preferenze di genere”; ad esempio, preferendo gli individui di sesso maschile. L’utilizzo dell’IA, nel nostro esempio, è causa di una discriminazione che interessa le donne che hanno presentato la domanda per accedere a quella posizione lavorativa, le quali sono “scartate” (o almeno non “preferite”) dall’algoritmo incaricato di vagliare le domande.
Inoltre, occorre considerare che i sistemi “intelligenti” sollevano anche problemi ambientali. Il loro funzionamento, infatti, genera un grande “costo ambientale” e, in particolare, un importante “costo energetico”.
L’obiettivo dell’Unione Europea è, quindi, quello di favorire lo sviluppo sano, etico e responsabile dell’Intelligenza Artificiale, tramite una regolamentazione delle sue fasi di produzione e di utilizzo.
Quattro sono gli obiettivi principali che l’atto in fase di adozione si propone in termini di garanzia:
- della privacy
- del principio di non discriminazione
- della trasparenza delle decisioni
- della sicurezza dei dati.
Il parametro utilizzato è quello del rischio. Si valuta, in particolare, il rischio che i sistemi intelligenti presentano per le libertà fondamenti della persona. Più elevato è il rischio, maggiori sono le garanzie che questi sistemi devono offrire. Ad esempio, occorre garantire una effettiva supervisione umana, in caso di sistemi particolarmente rischiosi.
Oggi quasi tutti i principali settori di attività sono investiti dalle applicazioni dell’IA, dalla medicina al diritto, dall’agricoltura all’editoria e all’arte. Così, il regolamento europeo, che una volta approvato avrà il valore di una fonte del diritto nel nostro Paese, sembra voler fare in modo che questi sistemi diventino un supporto per la personalità umana, riducendo i rischi connessi al loro funzionamento.
NOTA: il testo definitivo del IA Act è stato approvato dal Parlamento europeo il 6 marzo 2024