L’intelligenza artificiale va regolata

L’Ue sta preparando il primo insieme di norme al mondo su una materia delicata

Il dibattito sulle potenzialità e l’importanza dell’intelligenza artificiale, ma anche sui rischi connessi al suo utilizzo, è in corso ormai da parecchi mesi ed è giunto anche al Parlamento europeo. Come parte della sua strategia digitale, l’Ue intende infatti regolamentare l’intelligenza artificiale (IA) in modo da poter garantire migliori condizioni per lo sviluppo e l’uso di questa tecnologia innovativa. Nell’aprile 2021, la Commissione europea aveva proposto il primo quadro normativo europeo sull’IA, prefigurando che i sistemi di intelligenza artificiale utilizzabili in diverse applicazioni fossero analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio dovrebbero comportare così una maggiore o minore regolamentazione e il risultato di questo percorso porta l’Ue a definire le prime regole al mondo sull’IA, in modo da poter gestire le opportunità e i rischi collegati a questa materia e rendere l’Ue un punto di riferimento globale.

Si tratta infatti di una tecnologia che può portare notevoli benefici, ad esempio nel miglioramento dell’assistenza sanitaria, per trasporti più sicuri e puliti, una produzione più efficiente e un’energia più conveniente e sostenibile. Ma allo stesso tempo comporta rischi di vario genere e a vari livelli.

Il 14 giugno scorso il Parlamento europeo ha così definito la propria posizione negoziale sull’Artificial Intelligence Act. Tra le priorità quella di assicurare che i sistemi di IA in uso nell’Ue siano «sicuri, trasparenti, tracciabili e non discriminatori». L’Europarlamento intende creare una definizione neutra e uniforme dal punto di vista tecnologico, che si renda applicabile a tutti i futuri sistemi di AI. Ora iniziano i negoziati con gli Stati membri dell’Ue in sede di Consiglio per la stesura finale della legge, con l’obiettivo di raggiungere un accordo entro la fine dell’anno.

Regole necessarie per i livelli di rischio dell’IA

Le nuove regole europee stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio dell’intelligenza artificiale. I sistemi di IA sono considerati «a rischio inaccettabile», e quindi vietati, quando costituiscono una minaccia per le persone. In particolare, nei casi di «manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici», ad esempio giocattoli che incoraggiano comportamenti pericolosi nei bambini. Oppure in merito alla «classificazione sociale», che avviene in base al comportamento, al livello socio-economico, alle caratteristiche personali. O anche nei sistemi di «identificazione biometrica in tempo reale e a distanza», come il riconoscimento facciale.

Saranno invece considerati «ad alto rischio» i sistemi di IA che influiscono negativamente sulla sicurezza o sui diritti fondamentali e saranno suddivisi in due categorie: i sistemi utilizzati in prodotti soggetti alla direttiva europea sulla sicurezza generale dei prodotti (giocattoli, aviazione, automobili, dispositivi medici ecc.); i sistemi che rientrano in otto aree specifiche e che dovranno essere registrati in un database (identificazione e categorizzazione biometrica; gestione e funzionamento di infrastrutture critiche; istruzione e formazione professionale; occupazione, gestione dei lavoratori e accesso all’autoimpiego; accesso e fruizione di servizi privati essenziali e servizi pubblici; forze dell’ordine; gestione delle migrazioni; assistenza nell’interpretazione e applicazione della legge).

Infine i sistemi di IA «a rischio limitato», che dovrebbero rispettare requisiti minimi di trasparenza tali da consentire agli utenti di prendere decisioni informate, cioè decidere se continuare a utilizzarli. Questo aspetto include i sistemi di IA che generano o manipolano contenuti di immagini, audio o video (ad esempio i deepfake).

L’IA generativa, come ChatGPT, dovrà invece rispettare requisiti di trasparenza: rivelare che il contenuto è stato generato da un’intelligenza artificiale, progettare il modello per impedire la generazione di contenuti illegali, pubblicare riepiloghi dei dati con diritti d’autore utilizzati per l’addestramento.

Secondo i sindacati europei serve una nuova direttiva

La Confederazione europea dei sindacati (Ces) ha accolto con favore i miglioramenti apportati dal Parlamento europeo all’Artificial Intelligence Act, come il dovere di consultare i lavoratori e i loro sindacati prima di introdurre l’IA sul posto di lavoro, o di effettuarne una valutazione dell’impatto sui diritti fondamentali. Secondo un recente rapporto dell’Ocse, osservano infatti i sindacati europei, è più probabile che i lavoratori segnalino impatti positivi dell’IA se c’è stato un processo di consultazione attraverso i loro sindacati. Esiste però una «scappatoia» che mette a rischio la sicurezza dei lavoratori e i diritti fondamentali e che l’Europarlamento non è riuscito a colmare, sostiene la Ces sottolineando come l’uso dell’IA sul posto di lavoro sarà limitato solo se rappresenta un “rischio significativo”, cosa non in linea con il principio di precauzione. «Questo onere aggiuntivo per i lavoratori non è accettabile e lascia la loro sicurezza e i loro diritti aperti ad abusi» dichiarano i responsabili della Ces, esprimendo preoccupazione anche sul rischio che l’uso dell’IA che incide sui diritti fondamentali delle persone rientri nell’ambito del processo di standardizzazione, «guidato da interessi economici privati e lobby pesanti», piuttosto che attraverso il processo democratico per elaborare la legislazione.

Il Parlamento europeo, negoziando con il Consiglio, dovrà difendere i miglioramenti nel testo finale della nuova legge, tuttavia «le carenze nelle posizioni di Parlamento e Consiglio sottolineano la necessità di proteggere i diritti dei lavoratori attraverso un’apposita direttiva sull’IA sul posto di lavoro» nota la Ces. «L’intelligenza artificiale al lavoro deve dare risultati tanto ai lavoratori quanto alle imprese: questo è il motivo per cui è necessaria una nuova direttiva dedicata per garantire che il principio del “controllo umano” sia messo in pratica nei luoghi di lavoro europei, in consultazione con i lavoratori attraverso i loro sindacati, e per garantire i diritti e la protezione dei lavoratori» ha concluso la vicesegretaria generale della Ces, Isabelle Schömann.