Negli ultimi anni l’intelligenza artificiale è entrata nel firmamento della tecnologia. L’AI sta rivoluzionando il diritto, la sanità, l’istruzione e vari modelli di business.
L’avanzata di Big Data e del machine learning sta cambiando il modo in cui ci avviciniamo all’intelligenza artificiale. Rishi Bommasani, Percy Liang e colleghi della Stanford University dicono che questo cambiamento di paradigma ha permesso all’intelligenza artificiale di diventare ottima per una vasta gamma di applicazioni oltre a quelle per cui era stata originariamente costruita, come l’elaborazione del linguaggio naturale (NLP) usata nei chatbot come Siri o Alexa, o la classificazione delle immagini. Questo però ci porterà rapidamente ad una crisi.
I modelli di AI hanno un enorme potenziale e possono essere ottimi in alcuni casi, ma presentano anche rischi significativi. “Nonostante l’imminente diffusione di questi modelli”, dicono Bommasani e colleghi, “attualmente non abbiamo una chiara comprensione di come funzionano, quando falliscono, e quali sono le loro capacità.”
Per questo il team ha deciso di esplorare la natura dei modelli di base per prevenire una loro futura crisi, e le loro conclusioni sono davvero interessanti.
Comportamento emergente, crisi (im)prevedibili?
Un problema con questi modelli è che il loro comportamento è emergente, più che progettato. Quindi non è sempre possibile sapere cosa faranno questi sistemi, o quando entreranno in crisi. “Questo è sia fonte di eccitazione scientifica che di ansia per le conseguenze impreviste”, affermano i ricercatori.
Un altro problema è che questi modelli sono ormai la base per molti altri. Ciò significa che possono essere applicati a un’ampia gamma di circostanze, ma anche che qualsiasi problema resta presente: vengono ereditati da tutti i discendenti. E gli ambienti orientati al profitto delle startup e delle grandi aziende non sono necessariamente i posti migliori per esplorare i potenziali problemi dell’AI.
L’incentivo commerciale può portare le aziende a ignorare le conseguenze sociali della futura crisi. Penso allo spostamento tecnologico del lavoro, la salute di un ecosistema informativo necessario per la democrazia, il costo ambientale delle risorse informatiche e la vendita di tecnologie a regimi non democratici.
Rishi Bommasani, Stanford University
Una corsa all’oro
Quando si sviluppa un nuovo prodotto, la spinta ad essere i primi spesso prevale su tutte le altre considerazioni e porta i team su strade che sono difficili da giustificare. Il team dà un esempio di questo comportamento contestando l’uso da parte di Clearview AI di foto da Internet per lo sviluppo del software di riconoscimento facciale. Questo senza il consenso dei proprietari o delle società di hosting di immagini. Clearview ha poi venduto il software a organizzazioni come i dipartimenti di polizia.
Crisi e conseguenze insidiose
Le conseguenze della crisi da uso diffuso dei modelli di intelligenza artificiale potrebbero essere ancora più insidiose. “In quanto tecnologia nascente, le norme per lo sviluppo e l’implementazione responsabili del modello di base non sono ancora ben stabilite”, affermano i ricercatori.
Tutto questo deve cambiare, e in fretta. Bommasani e co affermano che la comunità accademica è ben preparata per raccogliere la sfida della futura crisi di identità dell’AI. È pronta perché riunisce studiosi di un’ampia gamma di discipline che non sono guidate dal profitto. “Il mondo accademico svolge un ruolo cruciale nello sviluppo di modelli AI che promuovano benefici sociali e mitighino i possibili danni della loro introduzione. Le università e possono anche contribuire alla definizione di norme istituendo comitati di revisione etica e sviluppando i propri modelli virtuosi”.
Sarà un lavoro importante
Garantire l’uso giusto ed equo dell’AI deve essere una priorità per le democrazie moderne, anche perché l’intelligenza artificiale ha il potenziale per minacciare i mezzi di sussistenza di una parte significativa della popolazione globale. Con la quarta rivoluzione industriale che si avvicina rapidamente, è difficile sapere quali lavori saranno al sicuro dall’automazione. È probabile che pochi ruoli lavorativi rimarranno invariati dal processo decisionale automatizzato in futuro: una crisi, come detto, che va prevenuta.