L’intelligenza artificiale rappresenta una delle più significative trasformazioni tecnologiche del XXI secolo, con implicazioni dirette sul diritto, l’economia e la società.
L’Unione Europea si trova di fronte alla necessità di regolamentare e incentivare lo sviluppo di questa tecnologia, bilanciando innovazione, tutela dei diritti fondamentali e competitività economica.
Da un lato, un’agenda strategica per posizionare l’Europa come leader globale nel settore. Dall’altro, il lancio di InvestAI, un’iniziativa per mobilitare 200 miliardi di euro destinati alle infrastrutture e alla ricerca sull’IA.
La definizione di “Sistema di IA” nell’AI ACT
Il documento della Commissione Europea “Guidelines”, del 6 febbraio 2025, fornisce un quadro dettagliato sulla definizione di “sistema di intelligenza artificiale” secondo il Regolamento UE 2024/1689 “AI Act” e sulle implicazioni normative ad essa associate.
Questa definizione è essenziale per comprendere l’ambito di applicazione della normativa e per delineare il perimetro delle pratiche consentite e vietate. Secondo l’articolo 3(1) dell’AI Act, un sistema di intelligenza artificiale è definito come un sistema basato su una macchina progettato per funzionare con diversi livelli di autonomia e adattabilità, capace di dedurre, dagli input ricevuti, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali. Questa definizione si distingue per la sua flessibilità e adattabilità ai progressi tecnologici, evitando un elenco chiuso di tecnologie che potrebbero rapidamente diventare obsolete.
Essa riflette un approccio orientato al ciclo di vita del sistema di IA, riconoscendo una distinzione tra fase di pre-implementazione (costruzione), che comprende lo sviluppo e l’addestramento dei modelli di IA, e fase di post-implementazione (utilizzo), che riguarda l’impiego effettivo dei sistemi IA in ambienti reali.
Il ruolo della Commissione Europea e delle linee guida
L’AI Act attribuisce alla Commissione Europea il compito di elaborare linee guida per chiarire la definizione di IA e supportare i fornitori e gli stakeholder nell’applicazione della normativa. Tali linee guida risultano imprescindibili per evitare interpretazioni ambigue della normativa, assicurare un’applicazione uniforme del regolamento in tutta l’UE e fornire indicazioni sulle pratiche vietate (articolo 5 dell’AI Act), come l’uso di sistemi IA per la manipolazione cognitiva su larga scala o per il riconoscimento biometrico senza consenso.
Il documento “Guidelines” identifica sette elementi essenziali che caratterizzano un sistema di intelligenza artificiale. Innanzitutto, un sistema di intelligenza artificiale è basato su una macchina che utilizza hardware e software per operare, inclusi supercomputer e chip specializzati. Esso presenta diversi livelli di autonomia, con la capacità di funzionare con minore o maggiore intervento umano a seconda delle circostanze.
Inoltre, un sistema di intelligenza artificiale è caratterizzato da adattabilità, ovvero la possibilità di modificare il proprio comportamento dopo l’implementazione, permettendo al sistema di evolvere nel tempo. Gli obiettivi di tale sistema possono essere espliciti o impliciti, con finalità che possono essere definite direttamente o emergere dai dati di addestramento.
Un altro aspetto fondamentale è la capacità di dedurre output, che conferisce all’intelligenza artificiale un potenziale inferenziale e di apprendimento dai dati. Tale sistema genera output che possono avere impatti su ambienti fisici o virtuali, come accade nei sistemi di guida autonoma o negli assistenti virtuali avanzati. Infine, un sistema di intelligenza artificiale interagisce attivamente con l’ambiente, modificando il contesto in cui opera.
Le implicazioni regolatorie e le prospettive future
L’approccio normativo europeo si distingue per il criterio basato sul rischio, imponendo vincoli più stringenti sui sistemi IA considerati ad alto rischio, come quelli impiegati nella giustizia, nella sanità o nelle infrastrutture critiche. Inoltre, l’AI Act riconosce la necessità di modelli di IA di uso generale, che rientrano in un quadro normativo specifico (Capitolo V del regolamento).
In prospettiva, la regolamentazione dell’IA dovrà evolversi per tenere il passo con i rapidi sviluppi tecnologici, garantendo che i principi di sicurezza, trasparenza e accountability siano mantenuti senza soffocare l’innovazione.
L’adozione di standard globali condivisi, sulla scia del GDPR per la protezione dei dati, potrebbe rappresentare una via per armonizzare le politiche internazionali sull’intelligenza artificiale.
Regolamentazione internazionale dell’intelligenza artificiale e analisi degli approcci comparati
A livello globale l’intelligenza artificiale è regolata in modo frammentato. Mentre gli Stati Uniti adottano un approccio più orientato al mercato, basato sull’autoregolamentazione delle imprese, la Cina promuove un modello centralizzato con un forte controllo governativo. Il Regolamento europeo sull’intelligenza artificiale, con un approccio antropocentrico, si posiziona tra questi due estremi, cercando di coniugare innovazione e tutela dei diritti. Dal punto di vista costituzionale, l’intelligenza artificiale solleva questioni fondamentali sui diritti digitali.
La Carta dei diritti fondamentali dell’Unione Europea sancisce principi come la protezione dei dati personali (art. 8) e la non discriminazione (art. 21), che devono essere garantiti nell’implementazione dell’intelligenza artificiale.
L’Europa non è l’unico attore impegnato nella regolamentazione dell’intelligenza artificiale. Gli Stati Uniti, pur non avendo una normativa federale unificata sull’intelligenza artificiale, adottano un approccio basato su iniziative settoriali e linee guida di agenzie governative come la Federal Trade Commission “FTC”, promuovendo la ricerca tramite il National AI Initiative Act; la Cina, invece, ha sviluppato una strategia nazionale per l’intelligenza artificiale, che la lega strettamente alla sicurezza nazionale, con un controllo statale sui dati e le piattaforme tecnologiche, mirando a diventare leader mondiale nel settore entro il 2030; il Canada, con il Bill C-27, sta regolamentando l’intelligenza artificiale e la protezione dei dati in modo simile al modello europeo, mirando a classificare le applicazioni di intelligenza artificiale in base al rischio e promuovendo l’uso responsabile della tecnologia.
Prospettive future: “InvestAI” e la strategia industriale europea
L’iniziativa “InvestAl” segna un punto di svolta importante per l’Europa, che, con la sua visione strategica, intende non solo consolidarsi come leader mondiale nell’intelligenza artificiale, ma anche riscrivere le regole geopolitiche del gioco tecnologico globale. Mentre l’11 febbraio, a Parigi, 61 Paesi hanno sottoscritto la Dichiarazione sull’IA, sancendo il Principio di un’intelligenza artificiale “aperta, inclusiva ed etica”, il rifiuto di firmare degli Stati Uniti e del Regno Unito evidenzia le ormai profonde divergenze globali in tema di regolamentazione dell’intelligenza artificiale.
L’Europa, lontana dal restare spettatrice, rilancia con InvestAl, startegia con ben 200 miliardi di euro, più di 100 solo dalla Francia, in investimenti destinati alle gigafactories di IA, I’UE non solo sta accelerando l’avanzamento tecnologico ma sta anche cercando di rafforzare la propria indipendenza, riducendo progressivamente quella dalle piattaforme tecnologiche esterne e ponendo le basi per un ecosistema autonomo di intelligenza artificiale.
Fortemente condivisa è l’idea di creare un ambiente europeo di innovazione che non solo contesti il predominio delle superpotenze tecnologiche, ma definisca nuove traiettorie per la competitività globale. Un futuro in cui l’Europa non solo ambisce a guidare, ma a tracciare un percorso, con un’intelligenza artificiale che, pur avanzata, rimanga sempre eticamente radicata nei valori europei di trasparenza, sicurezza e giustizia.
In questo contesto, l’obiettivo si estende oltre il piano tecnologico, assumendo una dimensione geopolitica, poiché la competizione per l’intelligenza artificiale rappresenta anche un’opportunità per consolidare il predominio della sovranità digitale su scala globale.