Il Parlamento Europeo approva il regolamento sull’intelligenza artificiale

0
553
Immagine di Freepik

Mercoledì scorso il Parlamento europeo, con 523 voti favorevoli, 46 contrari e 49 astensioni,  ha approvato la legge sull’intelligenza artificiale (IA),  il cosiddetto AI Act, che regolamenta il settore, con lo scopo di garantire sicurezza e rispetto dei diritti fondamentali e, al contempo,  promuovere l’innovazione. Del resto, l’esigenza di regolamentare per far si  che l’AI sia affidabile e sicura e venga  sviluppata e utilizzata nel rispetto degli obblighi in materia di diritti fondamentali  è già avvertita da tempo. E’ poi divenuta improcrastinabile da quando alcuni Stati membri hanno iniziato autonomamente a legiferare in materia.  Infatti, normative nazionali divergenti possono determinare una frammentazione del mercato interno e diminuire la certezza del diritto per gli operatori che sviluppano, importano o utilizzano sistemi di AI. Come è meglio esplicato nelle stesse premesse del nuovo regolamento, il Parlamento europeo, in questo modo,  ha ritenuto opportuno assicurare  un livello di protezione costante ed elevato in tutta l’Unione al fine di conseguire un’AI affidabile. Da Strasburgo, peraltro,  si auspica di superare le divergenze che ostacolano la libera circolazione, l’innovazione, la diffusione e l’adozione dei sistemi di AI e dei relativi prodotti e servizi nel mercato interno, prevedendo obblighi uniformi per gli operatori e garantendo la tutela uniforme dei motivi imperativi di interesse pubblico e dei diritti delle persone in tutto il mercato interno, sulla base dell’articolo 114 del trattato sul funzionamento dell’Unione europea (TFUE).

L’approvazione del regolamento giunge dopo una lunga genesi, durata ben quattro anni.

 I deputati hanno approvato la legge, in base all’accordo raggiunto con gli Stati membri nel dicembre 2023.

GLI OBIETTIVI DELL’AI ACT

Il Regolamento ha, dunque, l’obiettivo   di assecondare la rapida evoluzione di questo tipo di tecnologia che già sta cambiando profondamente abitudini e stili di vita, senza però che questo avvenga, pregiudicando gli interessi pubblici ed i diritti fondamentali tutelati dalla legislazione dell’Unione. L’Europa è stata la prima a muoversi in questa direzione e sembra volerlo fare  con equilibrio, determinazione  e lungimiranza.

L’obiettivo dichiarato espressamente è quello di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di AI ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore.  Già molti Stati membri si erano avviati a legiferare per proprio conto ed a stanziare ingenti risorse in questo settore, come recentemente fatto anche dal Governo italiano che ha annunciato per l’AI un investimento di un miliardo di euro.  Il Regolamento stabilisce obblighi per l’AI e le aziende che sviluppano le relative applicazioni sulla base dei possibili rischi e del livello d’impatto.

Tra le principali linee guida dell’AI Act si segnala, infatti, l’esigenza di stabilire adeguate garanzie  per i sistemi di intelligenza artificiale usati per finalità generali, di porre limiti all’uso dei sistemi di identificazione biometrica da parte delle forze dell’ordine, di contrastare duramente  sistemi di credito sociale, o diretti a manipolare e sfruttare le vulnerabilità degli utenti,  di tutelare i consumatori, anche  prevedendo la possibilità di presentare reclami.

L’ENTRATA IN VIGORE DEL REGOLAMENTO

La legge deve ancora essere formalmente approvata dal Consiglio. L’AI Act entrerà in vigore venti giorni dopo la pubblicazione del testo nella Gazzetta Ufficiale dell’Unione europea, quindi prima delle nuove elezioni per il Parlamento europeo, anche se per alcune parti di esso è prevista un’applicazione differita e graduale della legge per consentire ad enti, aziende e governi di adeguarsi. Il nuovo regolamento sarà pienamente in vigore entro 24 mesi; tuttavia, per alcune questioni più urgenti e delicate, la sua operatività scatterà in anticipo, anche in relazione a dei livelli di rischio opportunamente individuati.  La procedura messa in campo prevede che, per   i codici di buone pratiche, l’entrata in vigore intervenga nove mesi dopo la pubblicazione in Gazzetta; per le norme sui sistemi di AI per finalità generali, compresa la governance (12 mesi dopo) e per gli obblighi per i sistemi ad alto rischio (36 mesi dopo).

Questo perché tutti i sistemi di intelligenza artificiale e le connesse applicazioni sono state classificate secondo quattro livelli di rischio: minimo, limitato, alto ed inaccettabile.

In quest’ultimo caso, il regolamento entrerà in vigore entro sei mesi, in quanto si tratta di sistemi ed applicazioni ritenuti  in aperto contrasto con i  valori fondanti dell’Unione.

I LIVELLI DI RISCHIO DEI SISTEMI AI

Tornando ai livelli di rischio dei sistemi ed applicazioni AI, va detto che il rischio “minimo” non prevede alcun obbligo legale, mentre quello classificato come  “limitato” riguarda quei sistemi che di per sé non comportano rischi notevoli e devono soddisfare requisiti limitati, come la trasparenza.

Altro discorso per i sistemi AI a rischio “alto” ed “inaccettabile”.

Nel caso dei primi, si tratta di sistemi che, benché   non vietati, tenuto conto della loro potenziale capacità di minare la sicurezza e i diritti delle persone, devono soddisfare una serie numerosa e importante di requisiti. Occorre, infatti, che le società sviluppatrici compiano, preliminarmente, un’approfondita valutazione dei rischi, informando gli utenti, garantendo la sicurezza informatica anche prevedendo sempre la possibilità  di un intervento umano. I sistemi e le relative applicazioni classificate a rischio alto dovranno, comunque, essere inserite in un database consultabile pubblicamente.

Per i sistemi di AI ad ”alto”  rischio (che potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto) sono, comunque, previsti obblighi precisi. Rientrano in questa categoria l’utilizzo dei sistemi che riguardano   infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base,  alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici.  In questi casi c’è l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana. I cittadini avranno diritto a presentare reclami sui sistemi di AI e a ricevere spiegazioni sulle decisioni basate su sistemi di AI ad alto rischio che incidono sui loro diritti.

Infine, il rischio considerato “inaccettabile” riguarda quei sistemi ed applicazioni ritenuti in aperto contrasto con i valori fondanti dell’Unione, che di fatto sono messi fuori legge.

LE ECCEZIONI PREVISTE PER I SERVIZI AI AD ALTO RISCHIO

I sistemi ad alto rischio comprendono quelli di categorizzazione biometrica, basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale, dei sistemi di credito sociale, che giudicano le persone in base ai propri comportamenti, delle pratiche  di polizia predittiva, se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona,  dei  sistemi di riconoscimento delle emozioni, in particolare nei luoghi di lavoro e nelle scuole.

L’unica eccezione per l’utilizzabilità dei sistemi ad alto rischio riguarda le forze dell’ordine, ma solo nei casi espressamente previsti dalla legge, munite delle prescritte autorizzazioni. La legge prevede, infatti, che l’identificazione “in tempo reale” potrà essere utilizzata solo se saranno rispettate garanzie precise, ad esempio nel caso in cui l’uso è limitato nel tempo e nello spazio, sempreché vi sia un’autorizzazione giudiziaria o amministrativa. Gli utilizzi di sistemi con rischio “inaccettabile”, a queste condizioni potrebbero essere utilizzati per la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico.

L’INTELLIGENZA ARTIFICIALE AL G7 DI TRENTO

La sfida dell’AI è ormai lanciata e anche il G7 di Trento, attualmente in corso, se ne sta occupando da vicino, analizzandone tutti aspetti: benefici e rischi. Nella seconda giornata della riunione dei ministri dell’industria, tecnologia e digitale del G7 protagonista è stata proprio l’Intelligenza Artificiale.  L’incontro è stato  presieduto dal ministro delle imprese e del Made in Italy Adolfo Urso e dal sottosegretario a l’innovazione tecnologica e transizione digitale Alessio Butti .

Si è dibattuto approfonditamente sull’utilizzo della AI, che come ha detto Urso ” deve essere etico e responsabile, preservando la privacy, la sicurezza dei dati personali e l’equità nei processi decisionali automatizzati”. Inoltre, come priorità dei Paesi G7  viene individuato il governo digitale e lo sviluppo di sistemi e servizi pubblici digitali incentrati sull’uomo, sicuri ed efficienti con l’obiettivo di semplificare la vita dei cittadini e delle aziende.

GLI SCENARI FUTURI: TRA RISCHI ED OPPORTUNITÀ

In definitiva, l’avvento dell’AI  costituisce una rivoluzione copernicana i cui primi effetti dirompenti, come si sta già osservando,  si avranno sul mercato del lavoro. Non sarà più lo stesso e neanche noi saremo più come oggi. Del resto, si parla già  in molti Paesi di reddito base universale che, questa volta, sarebbe imposto non da scelte di natura politica ma direttamente dalle esigenze e caratteristiche della tecnologia dell’AI, che sta avendo una crescita esponenziale nello svolgere e semplificare molte attività, finora svolte con il prevalente intervento dell’uomo e, quindi, progressivamente sostituire anche l’intervento umano.

Non si può fermare una rivoluzione come quella in atto!  Non ci sarà paura dell’AI se si riuscirà davvero  a regolamentare e guidare da subito il sistema, con tutte le sue molteplici applicazioni, con equilibrio e lungimiranza, preservando etica e responsabilità.

L’Europa ci sta provando anche se occorrerebbe una convergenza mondiale.

contributo esterno

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui