L’avvento dell’intelligenza artificiale ha dato la possibilità di accedere a numerosi benefici supportando lo svolgimento di attività comuni. Il ricorso a questa tecnologia innovativa è sempre più frequente nella vita quotidiana di ogni singolo individuo grazie ai servizi offerti. Le molteplici funzioni e applicazioni evidenziano la portata di questa evoluzione tecnologica in diversi ambiti della società. L’intelligenza artificiale non ha quindi solo un impatto sui singoli cittadini ma è anche in grado di incidere su diverse altre sfere di dominio statale sia nell’ambito civile che in quello militare. D’altro canto, le grandi capacità e potenzialità di questo mezzo sono però strettamente connesse ad una serie di potenziali rischi. Per cercare di minimizzare l’insorgenza di eventuali pericoli, a livello europeo, sono stati mossi i primi passi in vista della creazione di un quadro giuridico idoneo a regolare questa disciplina. Una tappa significativa è stata raggiunta in primavera del 2021 con la definizione del primo quadro normativo volto a regolare l’uso dell’intelligenza artificiale nell’ambito della strategia digitale che ha disposto poi ulteriori provvedimenti.
Rischio e regolamentazione: verso il traguardo finale
Il traguardo finale non sembra più una meta così lontana con il raggiungimento di un’altra tappa di estrema importanza: il 2 febbraio 2024 è arrivato il via libera da parte dei ventisette paesi dell’Unione europea che hanno votato all’unanimità a favore dell’ultimo testo (in versione di bozza) dell’Artificial Intelligence Act (AI Act) consolidando l’accordo politico stabilito a dicembre. La rilevanza di questo atto risiede in un elemento determinante in quanto si tratta del primo regolamento al mondo volto a disciplinare l’intelligenza artificiale generativa, la cui votazione finale è prevista in data 24 aprile 2024. Questo documento si basa su due pilastri fondamentali posti alla guida dell’intero testo: la sicurezza e la trasparenza su cui devono essere progettati e sviluppati i sistemi di AI. La regolamentazione dell’intelligenza artificiale pone come priorità assoluta la garanzia e il rispetto di alcuni principi fondamentali, come: la sicurezza, la tracciabilità e la trasparenza. L’intento è quindi quello di promuovere l’utilizzo di questo strumento salvaguardando i diritti umani e i valori democratici, da sempre principi portanti dell’Unione Europea. Un altro punto cardine è la scelta di un approccio strettamente relazionato alla valutazione del rischio: maggiore è il suo profilo e più stringente sarà quindi la regolamentazione. Secondo il regolamento, il termine rischio è connesso a un potenziale danno alla sicurezza o alla salute degli individui. Sono state quindi elaborate tre categorie specifiche in relazione alla pericolosità del rischio che si suddividono in: rischio inaccettabile, rischio elevato e rischio limitato. Nella prima tipologia rientrano i fenomeni che rappresentano una minaccia per gli individui, tra cui: i sistemi di identificazione biometrica e la manipolazione cognitiva. Il secondo gruppo è invece costituito dai sistemi che incidono in maniera negativa sui diritti fondamentali delle persone e sulla sicurezza pubblica.
Infine, il concetto di rischio limitato fa riferimento ai sistemi che soddisfano requisiti minimi di trasparenza e che consentono quindi all’utente di compiere scelte informate. In generale, lo scopo principale della regolamentazione è volto a garantire la tutela di alcuni diritti fondamentali, i quali rischiano di essere compromessi durante l’utilizzo di questi strumenti di essenziale utilità ma potenzialmente pericolosi, introducendo una serie di divieti e di sanzioni.
Impatto dell’AI Act
In breve tempo l’intelligenza artificiale è stata in grado di penetrare nelle nostre vite attraverso, per esempio, la creazione di chatbot in grado di dialogare con noi, rispondere ai nostri quesiti ed eseguire tasks in tempi record. Se da un lato, questo strumento ha saputo almeno in parte risolvere i nostri dubbi, dall’altro, ha generato immagini e video verosimili che hanno messo in discussione la nostra capacità di distinguere la realtà dalla finzione. L’intento perseguito mira a garantire maggiore trasparenza laddove sono venute a crearsi delle zone d’ombra. I rischi che si riflettono sulla nostra vita quotidiana riguardano diversi ambiti poiché mettono a repentaglio i diritti fondamentali dell’uomo, la democrazia e lo stato di diritto così come la sicurezza economica. Infatti, il ricorso all’uso di sistemi di intelligenza artificiale può comportare il rischio di discriminazione, violazione della privacy e copyright limitando la libertà di espressione oppure diffondendo disinformazione. Le principali restrizioni introdotte riguardano: il divieto di riconoscimento facciale in tempo reale in aree pubbliche e di polizia predittiva, la creazione di database basati su scraping e il divieto di categorizzazione biometrica e di riconoscimento delle emozioni. L’impatto dell’AI Act sarà significativo a livello europeo in quanto inciderà sull’uso dei sistemi di intelligenza artificiale imponendo una serie di requisiti rigorosi che dovrebbero ostacolare l’utilizzo di strumenti ad alto rischio contribuendo, al contrario, a promuovere mezzi più sicuri. Il frutto del regolamento è indirizzato non solo agli utenti ma anche alle organizzazioni che, in attesa dall’approvazione della legge, dovrebbero mappare i propri processi controllando il livello di conformità. Se da un lato, risulta quindi necessario stabilire futuri obiettivi aziendali nel rispetto delle normative imposte, dall’altro lato, è prevista l’elaborazione di una serie di futuri accordi tra le associazioni di settore e le commissioni governative per salvaguardare la fattibilità di progetti imprenditoriali che coinvolgono la sfera dell’AI.
Scenario futuro
Dopo anni di lavoro, il risultato raggiunto tramite l’adozione di questo nuovo regolamento è tutt’altro che scontato poiché è stato in grado di superare opposizioni e critiche che hanno più volte ostacolato il raggiungimento di questo obiettivo. Si tratta quindi di un momento di importanza storica per l’Unione europea, in cui l’Italia ha partecipato in maniera attiva dimostrando il suo impegno a favore di un futuro digitale innovativo ma anche etico e sicuro.
Nel breve periodo, si guarda con estrema attenzione alla data del 24 aprile, momento in cui avverrà l’approvazione ufficiale del regolamento che entrerà in vigore dopo la sua pubblicazione sulla Gazzetta ufficiale europea. Considerando invece il lungo termine è di vitale importanza continuare a promuovere una stretta collaborazione tra gli Stati e le istituzioni europee per implementare in maniera ancora più efficace le decisioni adottate nel quadro della strategia digitale. L’AI Act rappresenta un punto di arrivo ma anche l’inizio di un percorso dove l’intelligenza artificiale si prospetta sempre più al centro della nostra società e dell’economia rendendo quindi necessario l’elaborazione di una disciplina destinata alla tutela dell’essere umano ma anche dei valori fondamentali su cui si erge l’Unione europea.

