In un contesto tecnologico in rapida evoluzione, l’Unione Europea si fa strada con una mossa storica: l’introduzione del rivoluzionario AI Act (vi linko il testo). Questo nuovo quadro normativo, atteso per il voto nel 2024, mira a stabilire nuovi standard globali in termini di sicurezza e trasparenza per gli sviluppatori di intelligenza artificiale, tra cui OpenAI e altri. Con l’obiettivo di equilibrare innovazione e diritti fondamentali, l’AI Act potrebbe rappresentare una svolta significativa nella regolamentazione dell’AI a livello mondiale.
Cosa rappresenta l’AI Act?
L’AI Act, come detto, è un punto di svolta nella politica tecnologica dell’UE, perché introduce un quadro completo per la sicurezza e la trasparenza dell’intelligenza artificiale.
Dopo oltre 36 ore (tempo effettico) di dibattiti intensi, i funzionari dell’UE hanno finalizzato un insieme di linee guida, che al momento sono le più rigorose a livello globale. Questo atto pone l’Europa come un esempio per altre nazioni nel campo della regolamentazione dell’AI.
Quali sono i punti del nuovo AI Act?
Il fulcro dell’AI Act è la classificazione degli strumenti e delle applicazioni AI in tre “categorie di rischio”. Le AI con il più alto livello di rischio affrontano un esame regolamentare intenso. Tra queste ci sono veicoli autonomi, strumenti per infrastrutture critiche, dispositivi medici e sistemi di identificazione biometrica.
Questi sistemi “ad alto rischio” richiederanno valutazioni d’impatto sui diritti fondamentali, severi requisiti di trasparenza e dovranno essere registrati in un database pubblico dell’UE.
I divieti e le sanzioni
Oltre a definire le categorie di rischio, l’AI Act proibisce categoricamente alcuni usi dell’intelligenza artificiale. Tra questi, il riconoscimento facciale in tempo reale (un traguardo inseguito da tempo), il riconoscimento delle emozioni e i sistemi di “credito sociale” sono vietati.
Le importanti aziende tecnologiche statunitensi (come OpenAI e Google) che gestiscono “sistemi AI di uso generale”, dovranno conformarsi a nuovi standard imposti dall’UE. Questi includono l’aggiornamento delle autorità dell’UE sui metodi di addestramento dei loro modelli e la creazione di politiche per aderire alle leggi sul copyright dell’UE.
Le aziende tecnologiche che violano queste regole potrebbero affrontare multe significative, che variano tra l’1,5% e il 7% del loro fatturato totale. Tanto? Poco? Sufficiente a dissuadere, oppure no? Domande destinate a non avere risposta, per ora.
E qui nascono i dubbi
Nonostante il largo sostegno, l’AI Act ha sollevato preoccupazioni tra gli esperti di privacy europei. Alcuni ritengono che la struttura ponga poca enfasi sui diritti umani fondamentali, contrastando con approcci precedenti come il GDPR. Ancora: si teme che l’approccio basato sul rischio possa non fornire una visione completa dell’impatto futuro di strumenti AI apparentemente a basso rischio.
In attesa del voto finale nel 2024 (e forse di qualche modifica), l’impatto di questa regolamentazione sul panorama dell’intelligenza artificiale rimane oggetto di speculazione. L’evoluzione rapida dell’AI pone sfide significative alla sua applicazione e alla sua efficacia nel lungo termine.
L’AI Act rappresenta comunque un tentativo ambizioso e lodevole dell’Unione Europea di navigare nel complesso equilibrio tra l’innovazione tecnologica e la tutela dei diritti fondamentali. Sebbene la strada sia ancora incerta, l’AI Act potrebbe servire da modello per una regolamentazione globale dell’intelligenza artificiale, influenzando significativamente il futuro della tecnologia e della società.