Questo post fa parte di “Periscopio”, la newsletter Linkedin che ogni settimana approfondisce temi di Futuro Prossimo, e viene pubblicata in anticipo sulla piattaforma LinkedIn. Se vuoi iscriverti e leggerla in anteprima, trovi tutto qui.
Gli algoritmi governano sempre di più le nostre vite, guidano le nostre scelte e riempiono le nostre giornate. Un algoritmo è un sistema “nascosto” e onnipresente che domina, per la maggior parte, le nostre comuni realtà digitali.
Quando ascolti musica su iTunes, riproduci un video su YouTube, cerchi il prossimo regalo di compleanno su Amazon, guardi il tuo programma preferito su Netflix o addirittura cerchi notizie su Google, è un algoritmo che decide le opzioni a tua disposizione e, indirettamente, ciò che alla fine consumerai.
Gli algoritmi costruiscono veri e propri “imbuti” nei quali la nostra visione della realtà cade e finisce in una direzione precisa. È bello quando Spotify trova una canzone accattivante, ma è terribile quando una piattaforma social riesce ad influenzare l’esito di quelle che dovrebbero essere libere elezioni.
Si tratta di una enorme capacità di influenza, accuratamente pianificata e detenuta da pochissimi soggetti nel mondo: le grandi società tecnologiche.
Un algoritmo deve funzionare per forza così?
C’è qualcosa di gratificante nell’ottenere i nostri obiettivi attraverso un algoritmo. È come avere accanto qualcuno che “ci capisce al volo” e ci dice, o ci consiglia, sempre ciò vogliamo sentire. Per questo gli esseri umani ne vogliono sempre di più. E le aziende li impiegano perchè garantiscono loro profitti maggiori. Ma può funzionare soltanto così? È giusto?
La domanda è già emersa, ce la facciamo sempre più spesso e anche i lettori di questo blog non se ne sottraggono: come possiamo difenderci dagli effetti negativi degli algoritmi di intelligenza artificiale?
Possiamo limitare l’uso dei social media, o addirittura eliminare gli account. Possiamo stare offline il più possibile, o almeno qualche giorno al mese. Possiamo fare ricerche approfondite sui giornali per evitare di farci influenzare da fake news e bugie. Certo, possiamo, a prezzo di sacrifici, ma possiamo. Ma perchè deve dipendere solo da noi?
Perchè dobbiamo fare tutto noi?
Deve esserci per forza qualcosa che le stesse aziende tecnologiche debbano fare, siano costrette a fare per migliorare la situazione. Dobbiamo mettere in discussione tutto il quadro, ed il quadro è: un algoritmo è intrinsecamente progettato per occupare il nostro tempo e la nostra attenzione, sfruttando le nostre vulnerabilità psicologiche. Punto. È questo, è la verità.
Ed è una cosa grave, soprattutto per le nuove generazioni cresciute tra litigi continui sui social e gratificazione spicciola da “like”. E darci a vicenda il consiglio di astenerci dal navigare, o avere abitudini diverse, o fare sforzi di altro tipo, significa accettare passivamente che le aziende tecnologiche continueranno a sfruttare gli algoritmi sempre di più, e sempre peggio.
La domanda vera da farci è un’altra. La domanda è: perchè un algoritmo è ottimizzato per il coinvolgimento anzichè per il benessere? E cosa serve per cambiare questo stato di cose?
Cercasi algoritmo della felicità
Con una modesta quantità di lavoro, gli algoritmi potrebbero essere modificati per difendere ed esaltare la nostra delicata psicologia, anziché per sfruttarla. Un algoritmo dovrebbe essere addestrato a migliorare il benessere, più che l’interazione.
Provate ad immaginare come migliorerebbero le cose.
Chiaramente Big Tech non ci pensa nemmeno. L’ex presidente di Facebook Sean Parker, che ha visto nascere il colosso dei social, disse tempo fa che l’obiettivo principale della piattaforma era come sfruttare il più possibile tempo e attenzione degli utenti.
Si, lo sapete. L’obiettivo è il profitto. E la moneta è la nostra attenzione. Le conseguenze? In secondo piano. Che sappiano cosa stanno facendo, o che stiano viaggiando senza freni finchè non raggiungeranno un punto di rottura, le aziende tecnologiche stanno facendo danni su di noi, e sono responsabili.
L’importanza di un’etica dell’AI
Certo, ci sarebbe una (apparente) buona notizia: l’avvento dell’etica dell’AI e delle iniziative collaborative open source ha messo un po’ di pressione a queste aziende. Ora fanno il possibile per mostrare impegno a migliorare le loro piattaforme. Google, Facebook, Microsoft e altre hanno assunto molti esperti in scienze sociali: l’obiettivo? Rendere più umana la loro tecnologie.
Un compito ovviamente arduo, che incontra ostacoli già in partenza: ricordiamo tutti Timnit Gebru, l’esperta etica licenziata proprio da Google nel 2020 per aver messo sul banco degli imputati il ‘razzismo’ della sua Intelligenza Artificiale. Non è stato l’unico, né l’ultimo licenziamento di questo tipo. Le ha fatto seguito nel 2021 Margaret Mitchell, dello stesso team etico Google.
Eppure, questi esperti vengono licenziati per aver fatto ciò per cui erano stati assunti: analizzare i potenziali rischi della tecnologia. In altri termini va bene assumere esperti di etica, purché non interferiscano con i piani chiave dell’azienda.
L’etica dell’AI sarà una pratica aziendale insostenibile se i professionisti non saranno in grado di fare il loro lavoro, cioè di responsabilizzare le aziende per cui lavorano.
Mettere le persone prima del profitto
Negli ultimi due anni, la reputazione e l’immagine pubblica di queste aziende stanno riducendosi drasticamente a causa di queste scelte. E sempre più ricercatori provano a mettersi insieme per continuare a lavorare sull’etica della tecnologia senza sottostare agli obiettivi economici di questi giganti.
E forse è meglio così: difficile che le aziende tecnologiche riescano davvero ad ascoltare i loro team etici, se il loro problema è di natura puramente economica. Se introdurre etica non ridurrà i loro profitti, lo faranno: in caso contrario, impediranno a questi team di lavorare.
Per questo motivo la stessa Timnit Gebru ha fondato il Distributed Artificial Intelligence Research Institute (DAIR) e Margaret Mitchell lavora come ricercatrice e capo scienziata di etica presso Hugging Face .
Se i team etici interni non possono fare un vero lavoro (e non possono farlo, mi pare evidente), meglio che la soluzione si cerchi all’esterno.
L’esercito della salvezza
Come detto, stiamo assistendo a sempre più sforzi nel campo dell’intelligenza artificiale, ma fuori dalle grandi aziende tecnologiche. Ci sono soggetti che stanno lavorando collettivamente e individualmente per invertire le sorti del “domino dell’algoritmo”: oltre alle succitate DAIR e Hugging Face ci sono BigScience, EleutherAI e Montreal AI Ethics Institute , tra gli altri. In Italia abbiamo la Società Italiana per l’Etica dell’Intelligenza artificiale.
Forse è giunto il momento che anche chi ha un effettivo peso e potere politico assuma un ruolo più attivo nel monitorare le società che hanno il nostro futuro nelle loro mani.
Un algoritmo costruito intorno all’uomo
A questo proposito, l’UNESCO ha elaborato una serie di raccomandazioni per garantire che ogni algoritmo di AI sia incentrato sull’uomo.
“Dobbiamo creare regole e quadri internazionali e nazionali per garantire che queste nuove tecnologie vadano a beneficio dell’umanità nel suo complesso,” si legge nel documento.
“È tempo che l’AI sia al servizio delle persone, non il contrario”
“L’intelligenza artificiale influenza già le nostre vite. Ci sono alcune lacune legislative in questo settore che vanno affrontate subito. Il primo passo è quello di concordare quali valori debbano essere protetti e come debbano essere rispettate le normative. Esistono molti quadri e linee guida, ma sono applicati in modo disomogeneo e nessuno è veramente globale. E poiché l’intelligenza artificiale è globale, dobbiamo esserlo anche noi”.
L’impegno nel mondo
Il trattato UNESCO è stato approvato appena 7 mesi fa, il 24 novembre 2021. È un primo passo fondamentale per controllare le imprese che operano in ambiti legali con tecnologie superpotenti.
Anche in Cina si è aperta la strada a una regolamentazione senza precedenti per responsabilizzare le persone rispetto al potere di un algoritmo. Il 1° marzo scorso il governo cinese ha attivato una legge che consentirà agli utenti di disattivare completamente le raccomandazioni degli algoritmi, tra le altre misure per conferire alle persone potere decisionale sulle società tecnologiche.
Il fatto che l’etica dell’intelligenza artificiale abbia attirato l’attenzione degli organismi regolatori globali rivela quanto essa sia significativa per il benessere individuale e collettivo. Siamo all’inizio della ricerca per trasformare un algoritmo “malato” e che ci fa ammalare in un algoritmo di benessere?
Non so dirlo. Ma dobbiamo provarci a tutti i costi.