Intelligenza Artificiale: il Parlamento Europeo approva la legge

Mercoledì 13 Marzo 2024, l’Unione Europea è stata la prima al mondo ad approvare la legge sull’intelligenza artificiale, nota come AI ACT. Questa legislazione rivoluzionaria si propone di istituire un quadro normativo completo che stabilisca gli standard per lo sviluppo e l’impiego responsabile dell’IA nel contesto occidentale. L’obiettivo dell’AI ACT è fornire uno strumento per proteggere “i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore”. Un equilibrio delicato che, se implementato con successo, posizionerà l’Europa come pioniere nel settore e svolgerà un ruolo cruciale nella definizione delle linee guida globali per la governance dell’IA.

La legge europea sull’intelligenza artificiale si basa su due concetti fondamentali: il rischio e la fiducia.

L’approccio dell’UE all’Intelligenza artificiale

L’articolo 3 dell’AI ACT fornisce la prima definizione di sistema di intelligenza artificiale, ovvero:

“Un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.”

Questa definizione, pur essendo un punto di partenza cruciale per la comprensione del campo dell’IA, ha suscitato delle discussioni. Come si legge nel regolamento, esclude i “tradizionali sistemi software o dagli approcci di programmazione più semplici, e [la definizione] non dovrebbe riguardare i sistemi basati sulle regole definite unicamente da persone fisiche per eseguire operazioni in modo automatico.”
Una delle principali caratteristiche dei sistemi di IA è appunto la loro capacità inferenziale, cioè la capacità di simulare le modalità con cui la mente umana trae delle conclusioni logiche attraverso il ragionamento.

Il rischio dell’IA

Il rischio costituisce uno dei concetti fondamentali delineati dall’AI ACT. Il rischio si delinea in quattro livelli.

    1. Rischio inaccettabile.
      Questa categoria comprende pratiche e applicazioni di IA vietate, in quanto costituiscono una minaccia ai diritti fondamentali dei cittadini. Tra queste, troviamo sistemi di categorizzazione biometrica basati su dati sensibili e l’estrapolazione indiscriminata di immagini facciali da fonti online, come registrazioni di telecamere a circuito chiuso. Sono vietati anche sistemi che riconoscono le emozioni sul luogo di lavoro o nelle scuole, pratiche di credito sociale e tecnologie di polizia predittiva. Questo allinea l’AI ACT con gli orientamenti etici per un’IA affidabile del 2019, sottolineando l’inaccettabilità di pratiche contrarie ai valori dell’Unione, ad esempio perché violano i diritti fondamentali, sfruttano le vulnerabilità e manipolano gli individui.
    2. Rischio elevato.
      Questa categoria comprende sistemi di IA utilizzati in settori critici come infrastrutture, istruzione, sicurezza dei prodotti e gestione dell’occupazione. Include anche servizi essenziali come migrazione, giustizia e processi democratici. In altre parole, tutto quello che può influenzare la vita, il lavoro, la giustizia e i principi fondamentali della democrazia. Ad esempio, i sistemi di identificazione biometrica a distanza rientrano in questa categoria.

      Prima di essere messa sul mercato, in servizio o utilizzati, questi sistemi devono passare una serie di controlli, tra cui la valutazione e dove possibile la riduzione dei rischi, la manutenzione e l’aggiornamento dei registri d’uso, la trasparenza e l’accuratezza dei dati, la sorveglianza degli addetti che lavorano a questi sistemi e dei livelli avanzati di robustezza, sicurezza e precisione.
      Di questa categoria fanno parte alcune eccezioni definite e regolamentate, ad esempio la ricerca di un minore scomparso, la prevenzione di una minaccia terroristica specifica e imminente o l’identificazione di un sospettato di un reato grave.

    3. Rischio limitato
      Il rischio limitato si riferisce ai rischi associati alla mancanza di trasparenza nell’utilizzo dell’IA (vedi paragrafo successivo). La legge sull’IA introduce specifici obblighi di trasparenza per garantire che gli utenti siano consapevoli quando interagiscono con uno strumento di Intelligenza Artificiale (ad esempio un chatbot) o quando stanno leggendo un contenuto creato grazie all’IA.
      Ad esempio, un testo generato dall’IA deve essere etichettato come tale quando pubblicato per informare gli utenti su questioni di interesse pubblico. Questo mira a contrastare la disinformazione e la produzione di deepfake.

      In questa categoria rientrano ad esempio gli strumenti di elaborazione e modifica di testo, immagini e video e gli strumenti che permettono di interrogare e riassumere documenti o pagine web.

    4. Rischio minimo o nullo.
      Infine, per gli strumenti e le applicazioni a rischio minimo, non vengono imposte regole particolari. All’interno di questa categoria troviamo, ad esempio: videogiochi abilitati per l’IA o filtri antispam.

> Leggi anche: Princìpi e sfide dell’etica applicata all’Intelligenza Artificiale

Sull’affidabilità, fiducia e trasparenza dell’Intelligenza Artificiale

Da questa classificazione sembra che la corretta percezione dell’intelligenza artificiale da parte della società sia strettamente legata ai concetti di affidabilità, fiducia e trasparenza. Questi pilastri sono fondamentali per garantire che l’IA sia accettata e utilizzata in modo diffuso, riducendo al contempo i rischi associati al suo impiego.
In altre parole, l’AI ACT si basa sul fatto che più è alto il livello di affidabilità dello strumento, meno elevato è il rischio. Questa affidabilità si traduce nella capacità di minimizzare il rischio, contribuendo così a costruire una base solida per la fiducia del pubblico nell’utilizzo dell’IA.

La fiducia rappresenta quindi un elemento chiave per l’adozione su larga scala dell’IA, poiché incoraggia un uso più frequente della tecnologia, sbloccando così il suo potenziale economico e sociale.
L’AI ACT si propone di bilanciare la promozione dell’adozione dell’IA con la mitigazione dei rischi associati al suo utilizzo e per questo motivo concettualizza l’affidabilità come il livello di accettabilità del rischio intrinseco dell’intelligenza artificiale.
Questo approccio è in linea con le raccomandazioni del Gruppo di esperti di alto livello sull’intelligenza artificiale (AI HLEG), il quale ha riconosciuto nella “fiducia” il fondamento delle società moderne. La fiducia nell’IA è inoltre associata a sviluppi positivi, come una maggiore crescita economica, un maggior coinvolgimento civico, un governo di migliore qualità e una riduzione dei livelli di criminalità e corruzione. I legislatori sono dunque motivati a promuovere la fiducia nell’IA attraverso normative che ne regolamentino l’utilizzo.

Imprese, innovazione e formazione

Abbiamo visto come l’AI ACT si concentri su due obiettivi principali: regolare lo sviluppo, l’utilizzo e la commercializzazione dell’IA e garantire un quadro giuridico che stimoli l’innovazione, sia resiliente e preparato alle sfide future.

In questa prospettiva, gli Stati membri sono invitati a istituire spazi di sperimentazione normativa a livello nazionale per favorire lo sviluppo e le prove di sistemi di IA innovativi, fornendo così un ambiente regolamentato e controllato, noto come “sandbox” o ambiente di test regolato. Questo approccio consentirebbe alle PMI e alle start-up di sviluppare e testare sistemi di IA innovativi prima di introdurli sul mercato, garantendo la conformità normativa e la sicurezza dei prodotti.

Sul fronte della governance, ogni paese avrà un’autorità di controllo nazionale a cui cittadini e imprese potranno rivolgersi per le questioni relative all’intelligenza artificiale. A livello europeo, saranno coinvolti diversi enti, tra cui la Commissione Europea, il Comitato Europeo per l’Intelligenza Artificiale e l’Ufficio per l’IA. Saranno inoltre istituiti un forum consultivo e un gruppo di esperti scientifici indipendenti per garantire un approccio multidisciplinare e informato alla regolamentazione dell’IA.

Inoltre, l’importanza dei programmi di alfabetizzazione in materia di intelligenza artificiale viene sottolineata come fondamentale. Gli attori coinvolti dovrebbero comprendere la corretta applicazione degli elementi tecnici durante lo sviluppo dei sistemi di IA e le misure da adottare durante il loro utilizzo. Tutti gli utenti dovrebbero anche avere la formazione adeguata per interpretare l’output del sistema di IA. In particolare, l’articolo 4 specifica che i fornitori e gli utilizzatori di sistemi di IA dovranno adottare misure per garantire un livello sufficiente di alfabetizzazione in materia di IA tra il personale coinvolto nello sviluppo e nell’utilizzo dei sistemi IA. Questo suggerisce una tendenza verso l’introduzione di formazione obbligatoria in materia, almeno per le aziende e le persone coinvolte nello sviluppo dei sistemi di intelligenza artificiale.

> Scopri i nostri corsi di formazione sull’Intelligenza artificiale

L’AI ACT è un punto di partenza: tocca alle aziende comprendere appieno le disposizioni del regolamento e di adattare le pratiche aziendali di conseguenza, affrontando le sfide e sfruttando le opportunità emergenti.
A questo punto, la roadmap per le aziende si concentra su tre aree chiave:

  • la conformità normativa, per evitare sanzioni e reputazione negativa;
  • gli investimenti strategici in IA, per sfruttarne appieno il potenziale e cogliere le opportunità di innovazione e crescita;
  • lo sviluppo delle competenze, per guidare e implementare con successo le iniziative legate all’IA.

Le aziende hanno due anni per adeguarsi: l’AI ACT entrerà in vigore il ventesimo giorno successivo alla pubblicazione nella Gazzetta Ufficiale dell’UE e sarà pienamente applicabile dopo 24 mesi, anche se per le applicazioni classificate come «rischio inaccettabile» sembrerebbe che i divieti potrebbero partire già tra 6 mesi.

A questo link (esterno) puoi trovare il testo integrale della legge sull’Intelligenza artificiale.

Altre Fonti: 

Bonefeld-Dahl, C. (2024, March 13). We have a European AI rulebook. what do companies do now?. LinkedIn. https://www.linkedin.com/pulse/we-have-european-ai-rulebook-what-do-companies-now-bonefeld-dahl-vajtf/?trackingId=Zl0H6FZCQf%2B8HKMVlsh2oQ%3D%3D

Commissione europea, Direzione generale delle Reti di comunicazione, dei contenuti e delle tecnologie, (2019). Orientamenti etici per un’IA affidabile, Ufficio delle pubblicazioni. https://data.europa.eu/doi/10.2759/640340

Laux, J., Wachter, S., & Mittelstadt, B. (2024). Trustworthy artificial intelligence and the European Union AI act: On the conflation of trustworthiness and acceptability of risk. Regulation & Governance, 18(1), 3-32.

Legge sull’IA. Plasmare il futuro digitale dell’Europa. (2024). https://digital-strategy.ec.europa.eu/it/policies/regulatory-framework-ai

Stamboliev, E., & Christiaens, T. (2024). How empty is Trustworthy AI? A discourse analysis of the Ethics Guidelines of Trustworthy AI. Critical Policy Studies, 1-18.