AI ACT: a cosa serve e cosa cambierà

L’Unione Europea ha recentemente proposto un’iniziativa legislativa innovativa conosciuta come AI ACT. Questo provvedimento normativo rappresenta la prima legge globale dedicata all’IA, ed è un pilastro centrale della strategia digitale dell’UE. L’obiettivo dell’Unione Europea è renderlo uno standard globale, come successo con il Regolamento Generale sulla Protezione dei Dati (GDPR) del 2018. Un altro scopo è inoltre determinare fino a che punto l’IA ha un effetto positivo piuttosto che negativo sulla vita, ovunque ci si trovi. I primi testi sono stati approvati 499 voti a favore, 28 contrari e 93 astensioni. Le norme mirano a garantire che l’IA sviluppata e utilizzata in Europa sia conforme ai diritti e ai valori dell’UE. Ma cos’è esattamente l’AI Act e come influenzerà la nostra interazione quotidiana con l’intelligenza artificiale?

Cosa implica l’AI Act?

La normativa stabilisce che i sistemi di intelligenza artificiale devono essere sicuri, trasparenti, tracciabili, non discriminatori, rispettosi dell’ambiente e supervisionati da persone anziché da automazione, per evitare conseguenze dannose. Il Parlamento vuole anche stabilire una definizione tecnologicamente neutra e uniforme per l’IA che potrebbe essere applicata ai futuri sistemi di intelligenza artificiale. Gli utenti di queste applicazioni devono essere informati che stanno interagendo con un sistema di IA, e devono essere in grado di prendere decisioni informate sull’uso di tali applicazioni.

L’AI ACT categorizza le applicazioni dell’IA in tre categorie di rischio. Prima di tutto, vi sono le applicazioni che creano un rischio inaccettabile, come i sistemi di punteggio sociale gestiti dal governo, simili a quelli utilizzati in Cina. Queste sono categoricamente vietate. In secondo luogo, abbiamo le applicazioni ad alto rischio, come uno strumento di scansione dei CV che classifica i candidati per un lavoro. Queste sono soggette a specifici requisiti legali. Infine, ci sono applicazioni che non sono esplicitamente vietate o elencate come ad alto rischio e rimangono in gran parte non regolamentate.

Creare playlist musicali con l'IA

I livelli di rischio

Le applicazioni che presentano un rischio “inaccettabile” troviamo i sistemi di punteggio sociale gestiti dal governo, che classificano le persone in base al comportamento, al livello socio-economico, alle caratteristiche personali, rientrano in questa categoria. Tra queste anche la manipolazione comportamentale di individui o gruppi vulnerabili, sarebbero completamente vietate sotto questa legge. Ci sono tuttavia alcune eccezioni, come i sistemi di identificazione biometrica a distanza “post”, in cui l’identificazione avviene dopo un ritardo significativo, utilizzati per perseguire reati gravi e solo previa autorizzazione del tribunale. Un po’ in contrasto con quanto affermato settimane fa da Politico, secondo cui in Francia, nel 2024, le Olimpiadi di Parigi saranno sorvegliate dall’Intelligenza Artificiale.

Le applicazioni ad “alto rischio” occupano il secondo livello. Queste includono strumenti come un sistema di scansione dei CV che classifica i candidati per un lavoro, sistemi di IA utilizzati in prodotti soggetti alla direttiva dell’UE sulla sicurezza generale dei prodotti, e i sistemi di IA che rientrano in otto aree specifiche, che dovranno essere registrati in un database dell’UE. Queste applicazioni sono soggette a requisiti legali specifici per garantire che siano gestite in modo sicuro e responsabile. Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima di essere messi sul mercato e durante tutto il loro ciclo di vita.

Infine, abbiamo le applicazioni a “rischio limitato” che dovrebbero rispettare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate. Questo include i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video (ad esempio deepfake). Celebre le foto diventati virali del Papa con indumenti alla moda, rivelatesi poi (ovviamente) immagini generate da Intelligenza Artificiale Generativa.

Come può essere migliorato l’AI ACT?

Ci sono diverse lacune e eccezioni nella legge proposta. Queste limitano l’abilità dell’AI Act di garantire che l’IA rimanga una forza positiva. Attualmente, ad esempio, il riconoscimento facciale da parte della polizia è vietato a meno che le immagini non siano acquisite con un ritardo o la tecnologia non venga utilizzata per trovare bambini scomparsi. Le norme mirano a promuovere un utilizzo dell’IA affidabile, incentrato sull’essere umano e sulla tutela della salute, della sicurezza, dei diritti fondamentali e della democrazia dai suoi effetti dannosi.

I prossimi passi

Con l’approvazione di metà giugno, inizieranno dunque i negoziati con i Paesi dell’UE in Consiglio per stilare definitivamente la legge. L’obiettivo è raggiungere un accordo entro la fine del 2023. In attesa del testo definitivo della legge, rimane da vedere come l’AI Act verrà sviluppato e implementato. Anche altri Paesi sono all’opera per regolamentare l’Intelligenza Artificiale, benché non sembrano così avanti come l’Unione Europea. Tuttavia, una cosa è certa: l’IA è qui per rimanere, e la necessità di una regolamentazione appropriata è più urgente che mai.

Aiutaci a crescere: lasciaci un like :)

Giornalista pubblicista, SEO Specialist, fotografo. Da sempre appassionato di tecnologia, lavoro nell'editoria dal 2010, prima come fotografo e fotoreporter, infine come giornalista. Ho scritto per PC Professionale, SportEconomy e Corriere della Sera, oltre ovviamente a Smartphonology.