Nella votazione di mercoledì all’Europarlamento, ben 377 deputati hanno sostenuto una risoluzione che limita l’uso del riconoscimento facciale da parte delle forze dell’ordine. 248 hanno votato contro e 62 si sono astenuti, per la cronaca.
“I sistemi di identificazione basati sull’intelligenza artificiale identificano già erroneamente gruppi etnici minoritari, persone LGBTI, anziani e donne a tassi più elevati. Questo è particolarmente preoccupante nel contesto della sorveglianza delle forze dell’ordine e della magistratura”, si legge in una dichiarazione del parlamento.
Algoritmi opachi, sorveglianza inquisitoria
Per garantire che i diritti fondamentali siano rispettati quando si utilizzano queste tecnologie, gli algoritmi dovrebbero essere trasparenti, tracciabili e sufficientemente documentati. Ove possibile, le autorità pubbliche dovrebbero utilizzare software open source per essere più trasparenti.
Dichiarazione Parlamento UE
È una buona notizia che la maggior parte dei rappresentanti politici UE abbia fatto questa valutazione. Che non voglia l’uso del riconoscimento facciale nella sorveglianza di massa automatica delle persone in pubblico. Il monitoraggio dovrebbe essere limitato solo a coloro che si ritiene abbiano infranto la legge. Dovrebbero essere vietati anche i set di dati accumulati da società private, come Clearview AI, per identificare i cittadini. Servirebbe impedire, per la verità, anche i sistemi che consentano ai poliziotti di prevedere i reati dal comportamento e dal background delle persone.
Ecco cosa ha dichiarato il Parlamento UE su riconoscimento facciale e sorveglianza di massa:
“I diritti fondamentali sono incondizionati”, dice Peter Vitanov, eurodeputato che rappresenta il Partito socialista bulgaro. “Per la prima volta in assoluto, chiediamo una moratoria sull’implementazione di sistemi di riconoscimento facciale per scopi di sorveglianza e applicazione della legge, poiché la tecnologia si è dimostrata inefficace e spesso porta a risultati discriminatori.”
Siamo chiaramente contrari alla polizia predittiva basata sull’uso dell’intelligenza artificiale e a qualsiasi elaborazione di dati biometrici che porti alla sorveglianza di massa. Questa è una grande vittoria per tutti i cittadini europei.
Peter Vitanov, Eurodeputato
Il voto non è vincolante, e per questo non può portare direttamente ad alcuna modifica legislativa. È stato promosso per “tastare il polso” dell’Europarlamento, e capire se i membri potrebbero sostenere le prossime leggi come l’AI Act. Tra le intenzioni, anche quella di vietare ai controlli frontalieri i dati biometrici per tracciare i viaggiatori in Europa.
I guasti di una tecnologia ancora lacunosa
La crescita di questi algoritmi di sorveglianza è avvenuta molto rapidamente, e con un set di dati incompleto, ad essere generosi. Le discriminazioni del riconoscimento facciale sono all’ordine del giorno (pensate alla persona identificata come una “scimmia” da un algoritmo di Facebook). Le persone di colore hanno attualmente molte più probabilità di essere erroneamente identificate dal meccanismo di autenticazione di riconoscimento facciale. E ce n’è uno che ne fa di cotte e di crude: è l’algoritmo di Uber.
Un autista di Black Uber nel Regno Unito, che ha perso il lavoro dopo essere stato bloccato dall’app di chiamata in corsa quando il suo sistema di riconoscimento facciale non è riuscito a identificarlo, sta intraprendendo un’azione legale contro il gigante della tecnologia. Sarà sostenuto dall’Unione dei lavoratori indipendenti della Gran Bretagna (IWGB), che ha chiesto uno sciopero di 24 per chiedere cambiamenti nel modus operandi.
“L’uso continuato da parte di Uber di un algoritmo di riconoscimento facciale che è inefficace sulle persone di colore è discriminatorio”, ha detto Henry Chango Lopez, segretario generale dell’IWGB.