AI Act: cosa cambierà

Via libera in Europa all’AI Act. Il Consiglio e il Parlamento dell’Unione Europea hanno infatti raggiunto un accordo sulla proposta di regolamento europeo destinato ad introdurre, per la prima volta in Europa, un insieme di norme specifiche destinate a regolare alcuni aspetti sull’uso dei sistemi di intelligenza artificiale e sui requisiti che questi sistemi dovrebbero avere.

di Michela Maggi

L’accordo siglato tra le due istituzioni europee dovrebbe consentire una timeline di approvazione definitiva ed entrata in vigore del futuro Regolamento sull’intelligenza artificiale, già battezzato appunto come “AI Act”.

Coloro che hanno negoziato l’accordo all’interno del Parlamento Europeo miravano a consentire il passaggio della versione finale della proposta licenziata dal Parlamento il 14 giugno scorso mentre  la presidenza del Consiglio europeo si è fatta mediatrice delle varie e, talvolta, divergenti posizioni dei Paesi membri su questa materia così innovativa e impattante sulla progettualità delle imprese.

Le tematiche

Le problematiche oggetto dell’AI Act riguardano la regolamentazione generale sull’uso dei modelli di intelligenza artificiale, con alcune varianti rispetto a quelli indicati ad alto impatto e ad alto rischio e che possano causare rischi sistemici in futuro, un ufficio dedicato all’interno della Commissione europea e un comitato formato dagli stati membri; una migliore tutela dei diritti attraverso l’obbligo per gli utilizzatori di sistemi di intelligenza artificiale ad alto rischio, la necessità di effettuare una approfondita valutazione d’impatto sui diritti fondamentali che i sistemi possono toccare prima di poter avviare l’uso dei sistemi stessi, un elenco di attività vietate.

È stata inoltre introdotta la possibilità di utilizzare l’identificazione biometrica a distanza da parte delle forze dell’ordine negli spazi pubblici, fatte salve alcune garanzie per i soggetti identificati, il che ha dato origine a quella che alcuni già chiamano “polizia predittiva”. Quest’ultimo è stato uno degli argomenti più dibattuti negli ultimi mesi e, quasi certamente, lo sarà anche in futuro.

La “polizia predittiva”

Gli interessi coinvolti in questo nuovo sistema di polizia, infatti, hanno fatto da campo di battaglia tra le due diverse esigenze con cui le istituzioni europee si sono trovate a dover mediare. Da un lato, infatti, c’è l’esigenza e la necessità di tutelare i diritti fondamentali dei cittadini e di non consentire l’utilizzo dei sistemi di intelligenza artificiale per un vero e proprio controllo degli individui. Dall’altro lato, invece, l’esigenza di non limitare la possibilità di sviluppo delle incredibili potenzialità tecnologiche dell’intelligenza artificiale che, se correttamente utilizzate, potrebbero comportare enormi benefici a vantaggio di tutta la collettività, non ultimo la possibilità di arrestare crimini e reati con tempestività sembra essere una calamita verso quello che va delineandosi.

I principali critici della regolamentazione in tema di intelligenza artificiale ritengono che porre limiti allo sviluppo degli algoritmi e delle applicazioni non farà altro che portare gravi ritardi all’Unione Europea rispetto ad un mercato in cui sembra essere già in coda rispetto ad altri Paesi come gli Stati Uniti o la Cina.

Cosa sta facendo l’Unione Europea

Non a caso, l’Unione Europea ha anche previsto alcune misure a sostegno dell’innovazione, tramite un’attenuazione di alcuni limiti presenti nelle precedenti proposte legislative, in particolare in relazione alla possibilità di testare i sistemi di intelligenza artificiale in condizioni reali. Inoltre, per limitare gli oneri amministrativi per le imprese più piccole, si potrebbero comprendere elenchi di azioni da intraprendere a sostegno degli operatori e delle imprese.

Purtroppo, sembra che attualmente, tutti i principali investimenti nel settore dell’intelligenza artificiale siano collocati in altre zone del pianeta dove non ci sono regole stringenti. Ovviamente non è desiderabile per le imprese che effettuano ingenti investimenti in questi sistemi porre troppi limiti e troppi vincoli alla tecnologia.

Un sicuro deterrente all’uso illecito dell’intelligenza artificiale in Europa arriva anche dall’impianto sanzionatorio che è stato pensato per l’AI Act, che prevede ammende fissate in percentuale del fatturato annuo globale della società incriminata nell’anno finanziario precedente o in un importo predeterminato, a seconda di quale sia il più elevato. Questo ammonterebbe a 35 milioni di euro o il 7% per violazioni delle applicazioni AI sicuramente vietate, 15 milioni di euro o il 3% per violazioni degli obblighi della legge sull’AI e 7,5 milioni di euro o 1,5% per la fornitura di informazioni errate. Tuttavia, l’accordo provvisorio prevede massimali più proporzionati alle sanzioni amministrative per le PMI e le start-up in caso di violazione delle disposizioni.

Le principali preoccupazioni

Questa impostazione, in realtà, sembra foriera di importanti problematiche, perchè tutte le applicazioni e i servizi che usano sistemi di intelligenza artificiale, ovunque creati, dovrebbero sottostare all’AI Act una volta offerti sul mercato europeo e potrebbero essere riottosi a farlo, soprattutto se i sistemi fossero sviluppati o poggino su piattaforme basate fuori dell’Unione Europea. I cittadini europei si troverebbero quindi a fare i conti con applicativi sviluppati in paesi terzi che, in realtà, non garantiscono un adeguato livello di protezione dei loro diritti.

Molti illustri scienziati e imprenditori sono fortemente preoccupati per la possibilità che i cittadini si trovino indifesi di fronte a strumenti tecnologici avanzati che ne condizionano la vita di tutti i giorni, tramite sistemi di score, di riconoscimento e di ricostruzione del comportamento umano. Negli scenari più foschi, taluni rilevano la possibilità di un futuro, neppure troppo lontano, ove sia difficile, se non impossibile, distinguere tra ciò che è voluto, saputo e creato dall’uomo rispetto al prodotto di una macchina. In quest’ottica, l’accordo sull’AI Act pone l’accento sulla protezione dei diritti fondamentali e la sicurezza dei cittadini europei, tramite la prevenzione dall’uso ingiusto di queste tecnologie e tramite la promozione di una innovazione responsabile e di una progettualità che ne renda trasparenti i meccanismi.

Tra i sistemi di intelligenza artificiale che l’Unione Europea vorrebbe mettere al bando, poiché considerati a rischio inaccettabile, vi sono quelli che possano comportare una manipolazione comportamentale, l’interpretazione e l’utilizzo di aspetti emotivi sui luoghi di lavoro e di istruzione, sistemi di social scoring che classifichino le persone assegnando loro un punteggio o un rischio, categorizzazione biometrica riguardante dati sensibili quali l’orientamento sessuale o le preferenze religiose. Da ultimo, è stato confermato come trattamento a rischio inaccettabile quello di scraping, cioè l’uso sistematico ed indiscriminato di dati raccolti tramite videosorveglianza e social media per creare sistemi di riconoscimento facciale istantanei, violando alcuni fondamentali diritti umani quali la libera circolazione e il diritto alla riservatezza.

La questione del riconoscimento biometrico

Tuttavia, come accennato, uno dei principali temi su cui si verifica questo scontro è quello del riconoscimento biometrico, su ampia scala e rivolto verso il pubblico, tale da poter costituire una vera e propria sorveglianza di massa che, però, è vista da alcuni paesi come un possibile strumento fondamentale per la lotta al terrorismo e per il mantenimento della sicurezza e dell’ordine pubblico preoccupate di prevenire minacce terroristiche.

Oltre a questioni politico-sociali, questa contrapposizione è presente anche sul lato tecnico. Alcuni paesi, con la Germania in testa, ritengono che l’AI Act non dovrebbe prevedere una regolamentazione e dei limiti ai modelli fondativi, cioè gli strumenti stessi che addestrano gli algoritmi su cui si basano tutti gli output prodotti dai sistemi di intelligenza artificiale.

Questi paesi, tra cui parrebbe essere presente anche l’Italia, preferirebbero una autoregolamentazione del mercato, confidando sul fatto che le grandi società produttrici di applicativi di intelligenza artificiale avrebbero comunque interesse alla massima accuratezza dei propri modelli predittivi (si ricorda che questioni sull’accuratezza e l’esattezza dei dati trattati dagli algoritmi di ChatGPT erano alcune delle ragioni che avevano portato, il 30 marzo scorso, il Garante per la privacy italiano ad emettere il provvedimento di limitazione di trattamento nei confronti di OpenAI).

Anche in questo caso, però, si rileva la criticità che tutti i grandi operatori di settore provengono da paesi extra-UE e, di conseguenza, sarebbero fuori dalla possibilità concreta di subire una sanzione concreta, dovendo fare i conti con AI Act solo nella fase della fornitura del servizio verso il pubblico europeo.

Vale poi la pena di sottolineare che le lungaggini nell’approvazione di queste normative rischiano di intervenire in un settore che forse sarà profondamente cambiato, una volta che saranno in vigore,  ed in cui i legislatori europei potrebbero trovarsi ad essere meri spettatori.