L’avvento di una intelligenza artificiale, una AI ostile e il suo dominio sul genere umano sono un tema centrale di dibattito fin dal secolo scorso.
Dal libro di E.M. Forster “La macchina si ferma”, datato 1909 alla recente serie TV “Westworld” passando per la saga di “Terminator”, il nostro immaginario collettivo ha già contemplato questa ipotesi. E ha ritenuto che l’avvento di una AI ostile sarebbe una carneficina.
Si tratta peraltro di un problema che potrebbe restare ipotetico ancora per poco. Scienziati ed Ingegneri sono seriamente preoccupati che questo “sorpasso” tra l’intelligenza umana e quella artificiale (che dovrebbe dare il via alla singolarità tecnologica paventata dai transumanisti) sia il più grande errore umano.
I trend attuali ci mostrano una vera e propria “corsa agli armamenti” per ottenere questa tecnologia, che darebbe un enorme vantaggio competitivo. La vera questione diventa questa, a ben vedere: come fermare questa corsa sfrenata e con poco criterio? Come permettere lo sviluppo più armonioso di una AI che rispetti una sua “etica” e dei parametri di sicurezza?
Lo sviluppo di una super intelligenza artificiale porta con sé due sfide perché non diventi una AI ostile.
Prima sfida: l’unità di intenti. Serve che questa AI abbia in memoria (mente?) gli stessi obiettivi del genere umano. Senza, l’AI potrebbe “distrattamente” distruggere l’umanità valutandola come un orpello inutile, o un ostacolo da rimuovere.
Seconda sfida: la mutualità. È un problema politico, si tratta di assicurare che i benefici di una AI non vadano ad una piccola élite, causando disuguaglianze sociali spaventose.
Con l’attuale modello di “corsa agli armamenti”, qualsiasi sviluppo di una AI tende ad ignorare queste due sfide per poter fare prima. Questo rende davvero concreto il pericolo della nascita di una AI ostile.
Possibili soluzioni
Occorrono politiche nazionali che impediscano la competizione sfrenata, riducano il disordine di aziende ed enti che sviluppano AI e impongano dei paletti di sicurezza per chi vuole competere. Meno battaglia e più regole significa meno pressione e più attenzione alla sicurezza.
A suggerire iniziative pratiche per scongiurare l’avvento di una AI ostile è uno studio dei ricercatori Wim Naudé e Nicola Dimitri. Il quadro attuale è descritto con precisione, e parte subito con una smentita: curiosamente ci sono già pochi competitor, e questo non assicura comunque sicurezza.
Gruppi ed enti di USA, Cina ed Europa sono poco numerosi a causa degli enormi costi di sviluppo di una AI, ma sono lo stesso iper competitivi.
Per questo agli stati nazionali tornerebbero utili altre strategie
Gli Stati hanno il dovere di “calmierare” la battaglia offrendo a più soggetti possibile delle commesse che li vincolino. Più soldi, anche molti di più per lo sviluppo delle AI, ma a determinate condizioni di sicurezza.
Possono altresí offrire aiuto a chi voglia sviluppare tecnologie di “contenimento” allo sviluppo di una AI, presupponendo che anche la più intelligente e ostile possa avere punti deboli e non essere del tutto invulnerabile.
Ancora, si può incoraggiare la cooperazione modificando tasse ed incentivi a favore di chi decide di collaborare.
Bene comune
Oltre queste soluzioni (che lo studio spiega con maggior dettaglio) ce n’è una suprema, che è quella di scippare ai privati questo campo. Come per l’energia atomica o altre tecnologie e risorse ritenute vantaggiose e pericolose per tutti, serve che anche l’AI sia da considerare un bene comune, e tutelato perché non prenda strade sbagliate.
Nessuno è certo di nulla, attualmente. La stessa possibile natura ostile della AI è oggetto di discussione. Per alcuni scienziati non avverrà mai una “ribellione” del creato sul creatore. Per tanti altri ci sarà una fusione di uomini e AI, non verremo annientati ma migliorati.
In ogni caso il nostro pianeta e l’umanità potranno beneficiare enormemente dell’AI, e già oggi se ne intravedono i segnali.