Approvazione storica dell'AI Act: una nuova era per la regolamentazione dell'Intelligenza Artificiale nell'UE
Il Parlamento Europeo ha approvato con un’ampia maggioranza di 523 voti a favore e meno di 100, tra contrari e astensioni, il testo definitivo dell'AI Act. Ciò ha sancito l'adozione della prima legislazione al mondo dedicata a fornire un quadro normativo specifico per l'intelligenza artificiale predittiva e generativa. L'AI Act rappresenta un pilastro fondamentale della Strategia Digitale dell'UE, proponendo un approccio innovativo alla regolamentazione dell'IA. Sin dall’aprile del 2021, quando la Commissione Europea presentò la proposta iniziale, l’obiettivo è stato chiaro: analizzare e classificare i sistemi di IA in base al loro potenziale rischio per gli utenti, per orientare di conseguenza il livello di regolamentazione necessario. Il regolamento adotta una definizione ampia dell’intelligenza artificiale, identificandola come “un sistema automatizzato progettato per funzionare con diversi livelli di autonomia e che può mostrare capacità di adattamento dopo l’installazione e che, per obiettivi espliciti o impliciti, deduce, dagli input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”. Questa approvazione segna una pietra miliare nella governance dell’IA, collocando l'innovazione tecnologica sotto un quadro normativo che mira a tutelare i diritti degli utenti e a promuovere uno sviluppo etico e responsabile dell’intelligenza artificiale.
L'AI Act rappresenta un passo significativo verso la protezione dei diritti fondamentali, la salvaguardia dello Stato di diritto e il sostegno alla democrazia. Questa legislazione si distingue per il suo impegno a conciliare l'innovazione tecnologica con la sostenibilità ambientale e i rischi associati all'intelligenza artificiale ad alto impatto. Attraverso un approccio basato sui potenziali rischi e sul livello di impatto, il regolamento impone specifici obblighi agli sviluppatori e ai distributori di IA.
Una componente fondamentale di questa normativa è la proibizione di applicazioni IA che potrebbero minacciare i diritti civili. In particolare, vengono vietati l'uso di sistemi di categorizzazione biometrica che sfruttano caratteristiche sensibili, lo scraping indiscriminato di immagini facciali da internet o da videoriprese per la creazione di database per il riconoscimento facciale, il riconoscimento delle emozioni in contesti lavorativi e scolastici, il punteggio sociale e la polizia predittiva basata unicamente sulla profilazione individuale. Inoltre, è escluso dall'ambito di applicazione dell'AI Act l'uso di intelligenza artificiale per manipolare il comportamento umano.
Il regolamento, tuttavia, non si applica a sistemi IA utilizzati per scopi militari, di difesa o di sicurezza nazionale, né alle attività legate alla ricerca e allo sviluppo scientifico. Questa esclusione mira a bilanciare la necessità di innovazione tecnologica con la tutela dei valori fondamentali e la protezione dei cittadini da pratiche potenzialmente invasive o lesive dei loro diritti.
Nell'ambito dell’AI Act, il legislatore ha chiaramente identificato i principali portatori di interesse, analogamente a quanto avviene con il GDPR, delineando due categorie fondamentali di stakeholder. Questo regolamento è progettato per normare aspetti essenziali quali la commercializzazione, l’introduzione di soluzioni “as a service” e l’impiego generale dei sistemi di intelligenza artificiale. Al centro di queste nuove regole vi sono i fornitori di sistemi IA, che comprendono entità sia pubbliche, sia private. Questi soggetti sono responsabili dell’introduzione sul mercato europeo o dell’offerta di servizi IA all’interno dell’UE, indipendentemente dalla loro ubicazione geografica, a condizione che l'output dei loro sistemi sia utilizzato in Europa. L’AI Act impone a tutti gli operatori di osservare le normative stabilite, garantendo un’applicazione uniforme delle regole, escluso l’uso non professionale di tali sistemi.
Inoltre, è requisito imprescindibile per fornitori e operatori assicurare che il proprio personale, così come qualsiasi altra persona coinvolta nella gestione e nell'utilizzo dei sistemi di IA, riceva una formazione adeguata. Questo obbligo mira a promuovere una profonda comprensione delle implicazioni etiche, legali e operative dell'IA, enfatizzando l'importanza di un approccio responsabile e informato nello sviluppo e nell'impiego di tecnologie intelligenti.
La normativa è tanto più stringente quanto più il rischio della soluzione di IA è considerato alto.
Saranno vietati i sistemi classificati come a rischio inaccettabile che comprendono, per esempio:
Sono ammesse alcune eccezioni, di cui molto si è discusso, in caso della necessità di perseguire reati gravi.
Altre applicazioni giudicate a rischio elevato in grado di incidere sulla sicurezza o sui diritti fondamentali della persona saranno soggette ad attenta valutazione prima di essere immessi sul mercato e valutate periodicamente. I cittadini avranno facoltà di presentare reclami in merito alle autorità nazionali preposte.
Fra queste soluzioni che dovranno essere registrate in apposite banche dati figurano:
L’intelligenza generativa “classica” come ChatGPT non è considerata rischiosa, ma i legislatori prevedono che debbano essere applicate stringenti regole di trasparenza rendendo esplicito quando il contenuto è stato generato da IA e rispettando i diritti di autore.
Sono esclusi dal campo di applicazione dell’AI Act i sistemi utilizzati per scopi militari, di difesa e di sicurezza nazionale insieme alle soluzioni utilizzate per ricerca e sviluppo scientifico.
Il documento è certamente articolato e dovrà essere vagliato dai giuristi-linguisti per assicurarne la coerenza e facilitare la corretta implicazione a livello nazionale. Si può tuttavia affermare che avrà effetti importanti sull’utilizzo dei dati sanitari sensibili utilizzati per l’addestramento delle soluzioni AI soprattutto richiedendo che venga utilizzata la quantità minima di dati necessaria per raggiungere gli obiettivi previsti.
Inoltre, tutti i software classificati come medical device che rientrano nella definizione di IA dovranno adeguarsi alla nuova normativa entro ventiquattro mesi dalla pubblicazione in Gazzetta Ufficiale Europea (prevista ad ottobre 2024).
I requisiti previsti includono una Valutazione dell’Impatto sui Diritti Fondamentali e i software dovranno dunque prevedere la possibilità di una supervisione umana definendo la necessità di soluzioni che attribuiscano all’essere umano il potere di sorveglianza e controllo dei processi operativi. Sarà quindi responsabilità dei professionisti stessi essere informati in maniera appropriata in relazione ai sistemi che sono chiamate a usare.
L'AI Act si fonda su una visione profondamente antropocentrica, sottolineando l'essenzialità di integrare considerazioni etiche nell’adozione dell’intelligenza artificiale in vari settori, inclusa l'assistenza sanitaria. Questa legge enfatizza che lo sviluppo e l’uso dell’AI devono avvenire nel pieno rispetto dei valori fondamentali, dei diritti umani e delle libertà essenziali, mirando a prevenire applicazioni dell’AI che possano risultare dannose o discriminatorie. Per utilizzare la similitudine riportata da Padre Benanti in un recente articolo proprio sulla introduzione dell’AI ACT, ‘Quando abbiamo sviluppato macchine più veloci degli uomini – le automobili – abbiamo scritto il Codice della strada non per limitare la libertà delle persone, o per uccidere il mercato dell’auto (anzi...), ma per evitare incidenti in cui la macchina producesse vittime umane. (…) L’AI Act come dispositivo di un’Europa che mette al centro la persona e il suo valore è come il Codice della strada, una protezione di ciò che veramente vale: la vita e la libertà degli europei.’