La tecnologia di riconoscimento facciale può essere uno strumento potente per garantire la sicurezza, ma anche un’arma pericolosa se usata in modo opaco e discriminatorio. Lo dimostra quanto accaduto nella Striscia di Gaza, dove Israele ha implementato in sordina un vasto programma di sorveglianza biometrica sui palestinesi in seguito agli atroci e barbari attacchi del 7 ottobre. Sfruttando gli algoritmi di Google Photos e della startup Corsight, l’esercito israeliano ha schedato migliaia di persone senza il loro consenso, in quello che appare come un inquietante caso di profiling etnico ad alta tecnologia.
Big Brother a Gaza
La vicenda, riportata dal New York Times, ha i contorni di un thriller distopico. Dopo gli attentati del 7 ottobre, l’Unità 8200 dell’esercito di Israele (il principale reparto di intelligence) ha iniziato a identificare potenziali sospetti analizzando le immagini delle telecamere di sorveglianza e i video che Hamas aveva pubblicato sui social media. Parallelamente, i soldati hanno interrogato i prigionieri palestinesi per farsi indicare persone delle loro comunità affiliate a Hamas.
Con questo materiale, la startup Corsight (che vanta sistemi in grado di poter riconoscere i volti anche quando sono visibili per meno del 50%) ha costruito uno strumento di facial recognition ad hoc per gli ufficiali israeliani impegnati a Gaza. Per arricchire ulteriormente il database e scovare altri obiettivi, i militari hanno installato checkpoint dotati di telecamere biometriche lungo le principali strade usate dai palestinesi per fuggire a sud. L’obiettivo, ha rivelato un ufficiale al Times, era creare una “hit list” dei partecipanti agli attacchi del 7 ottobre. In pratica, uno schedario dei “soliti sospetti” basato su algoritmi e profiling etnico. Una caccia all’uomo hi-tech, condotta all’insaputa e senza il consenso degli interessati. Un incubo orwelliano divenuto realtà.
Israele, errori e abusi
La tecnologia, si sa, non è infallibile. Specie quando si basa su immagini sgranate o volti parzialmente coperti. Anche per questo l’Europa ha nei confronti del riconoscimento facciale un approccio giustamente prunte. Gli stessi soldati israeliani hanno ammesso al Times che il sistema di Corsight non era sempre accurato. A volte identificava erroneamente persone come affiliate a Hamas. È il caso del poeta palestinese Mosab Abu Toha, prelevato da un checkpoint di Israele mentre cercava di lasciare Gaza per l’Egitto con la famiglia a metà novembre. Era stato segnalato dall’AI come ricercato. Risultato: due giorni di detenzione, pestaggi e interrogatori, prima di essere rispedito a Gaza. Senza neanche spiegazioni.
Un destino che potrebbe essere toccato a chissà quanti altri innocenti, etichettati come potenziali terroristi solo per la loro etnia o per il luogo in cui vivono. Un rischio insito nei sistemi di facial recognition, che possono amplificare i pregiudizi umani se non usati con cautela e trasparenza.
Google, il grande orecchio
Ma non c’è solo Corsight dietro questo programma di sorveglianza. I soldati hanno rivelato al Times che l’esercito di Israele ha integrato la tecnologia dell’azienda con un altro strumento, più accessibile e forse ancora più potente: Google Photos. Gli ufficiali dell’intelligence hanno caricato sui server di Big G i database delle “persone note” e usato la funzione di ricerca delle immagini per identificare ulteriori sospetti. Google Photos, ha osservato un militare, riesce a riconoscere i volti anche da dettagli minimi, superando altri applicativi, Corsight incluso.
Insomma, il colosso di Mountain View, forse a sua insaputa, è diventato un ingranaggio chiave della macchina di controllo di Israele su Gaza. Un grande orecchio capace di mappare e spiare un’intera popolazione, violandone la privacy e i diritti in nome della sicurezza nazionale. Un uso controverso e opaco dell’AI, che a Gaza è abbinato all’uso di altre tecnologie avanzate come robot e droni, e solleva interrogativi sulle responsabilità etiche delle big tech.
Non solo Israele: il volto oscuro della sorveglianza
Il caso di Gaza non è purtroppo isolato. Corsight, fondata nel 2019 con un investimento di 5 milioni di dollari dal fondo canadese Awz Ventures, è specializzata proprio nella fornitura di soluzioni di facial recognition. Per un mucchio di realtà: governi, forze dell’ordine ed eserciti. Nel 2020, appena un anno dopo la sua creazione, l’azienda si vantava di poter identificare volti mascherati. Due anni dopo, nel 2023, annunciava di star sviluppando un tool capace di ricostruire le fattezze di una persona dal suo DNA (ne abbiamo parlato qui). Nel 2023, ha collaborato con la polizia di Bogotà per rintracciare sospetti di omicidio e furto sui mezzi pubblici.
Un business in crescita, alimentato dalla retorica della paura e dalla fame di sicurezza, ma non privo di zone d’ombra. Basti pensare alle dichiarazioni di Aaron Ashkenazi, managing partner di Awz Ventures, che in un editoriale dell’ottobre scorso sul Jerusalem Post scriveva che il suo fondo stava fornendo a Israele “gli strumenti tecnologici per fermare questi malvagi terroristi sul nascere”. Facile immaginare quali siano questi strumenti.
Dalla parte del Big Brother
Più in generale, quella di Corsight e di altre aziende simili sembra una missione al servizio del Grande Fratello globale. Uno sforzo per rendere ogni volto tracciabile, catalogabile e sorvegliabile, in un mondo dove l’anonimato è un lusso che non possiamo più permetterci e la privacy un optional da sacrificare sull’altare della difesa.
Non stupisce allora che negli ultimi mesi anche alcuni ospedali in Israele abbiano iniziato a usare gli algoritmi di Corsight per identificare i pazienti sfigurati, come riportato da Forbes. Un’applicazione apparentemente umanitaria, ma che apre la strada a usi più discutibili di questa tecnologia così invasiva. Il rischio, come dimostrano i fatti di Gaza, è che i sistemi di facial recognition diventino strumenti di oppressione e discriminazione nelle mani sbagliate. Che trasformino il diritto alla sicurezza in una scusa per violare altri diritti fondamentali, a partire da quello all’anonimato, o all’equo processo. Sia chiaro: non si tratta di demonizzare il riconoscimento facciale in sé, che può avere applicazioni positive in vari campi, dalla sanità alla sicurezza. Ma di regolamentarne l’uso in modo chiaro e democratico, ponendo limiti alle sue potenziali distorsioni e abusi.
Che riducano le persone a pixel e percentuali, etichettandole in base al colore della pelle, ai tratti somatici o all’estrazione sociale. Un incubo che chiama certamente in causa la responsabilità di chi sviluppa e vende queste tecnologie, ma sicuramente anche di chi le compra e le impiega.