Le guerre future saranno più veloci e tecnologiche, ma meno umane che mai: benvenuti nell’era dei robot soldati.
C’è un posto perfetto per testare armi avanzate: sono le isole Wallops, un piccolo fazzoletto di terra a largo della Virginia che sembra uscito proprio dalla penna di Asimov. Se un peschereccio fosse passato di là un anno fa avrebbe visto una mezza dozzina di gommoni circolare nell’area: uno sguardo più attento avrebbe rivelato che i gommoni non avevano nessuno a bordo.
Le barche usavano un motore in grado di regolarsi in base al contesto e trasmettere azioni e posizioni a tutte le altre, organizzando all’istante la flotta secondo una strategia. Anche sparando, per difendere magari delle truppe di stanza sulla riva.
Lo sforzo semi-segreto, parte di un programma della Marina USA chiamato Sea Mob, è un modo per far capire che presto delle macchine equipaggiate con intelligenza artificiale saranno perfettamente in grado di muovere attacchi anche letali senza nessuna supervisione umana e in spregio alle leggi della robotica.
Formulate da Isaac Asimov, uno dei padri della narrativa fantascientifica, le tre leggi della robotica furono pubblicate per la prima volta in un racconto del 1942. Nei suoi romanzi lo scrittore russo-americano le cita spesso: si tratta di principi rigidi, da non trasgredire, teorizzati per rassicurare l’umanità sulle buone “intenzioni” dei robot.
Chissà se Asimov aveva previsto che le sue ‘leggi’ avrebbero rischiato di finire in pezzi come sta per accadere.
Morte automatica
L’idea di mandare in battaglia grandi macchine mortali e autonome non è nuova: da decenni si testano sistemi simili, anche se di tipo difensivo, come quelli che permettono la copertura da missili ostili. Lo sviluppo dell’intelligenza artificiale permetterà di realizzare sistemi offensivi che non si limiteranno a rispondere a stimoli, ma decideranno da soli cosa fare, senza input umano.
Un umano impega un quarto di secondo per reagire alla vista di qualcosa (immaginate il tempo di un portiere che stabilisce dove gettarsi durante un rigore). Le macchine che abbiamo creato ci surclassano già, almeno nella rapidità. Quest’anno, ad esempio, ricercatori della Nanyang Technological University, a Singapore, hanno istruito una rete neurale ad assorbire i dati di 1.2 milioni di immagini. Il computer ha provato ad identificare i soggetti in foto, e ci ha messo 90 secondi. 0.000075 secondi a foto.
Per ora c’è ancora tanto da fare: a questa incredibile velocità il sistema ha identificato la persona in foto solo nel 58% dei casi. Un tasso di successo che sarebbe disastroso in battaglia. Che le macchine siano in grado di muoversi molto più rapidamente di noi è però un dato acquisito, e potrà solo aumentare. Nel prossimo decennio la nuova generazione di missili viaggerà a livello suborbitale, troppo rapidamente perchè un uomo potrà decidere come contrastarli o gestire la situazione. Stormi di droni autonomi attaccheranno, ed altri computer risponderanno a velocità supersonica.
“Quando la guerra diventa così veloce, in quale momento l’essere umano diventa un ostacolo?” si chiede Robert Work, Vice capo del Pentagono sia con Obama che con Trump. “Non c’è modo per noi di intervenire, per questo delegheremo alle macchine”. Altro che Asimov, insomma.
Armi che fanno da sole
Ogni aspetto militare vede oggi ricerche impegnate a garantire un tipo di guerra più rapida, più precisa, meno umana possibile.
La marina americana testa una nave da 135 tonnellate chiamata Sea Hunter, che pattuglia gli oceani senza alcun equipaggio, in cerca di sottomarini che un giorno potrà abbattere direttamente. In un test, la nave ha viaggiato per 4000km dalle Hawaii alla California senza intervento umano, facendo tutto da sola.
L’esercito intanto sviluppa nuovi sistemi “punta e spara” per i suoi carri armati, ed un sistema missilistico chiamato JAGM, Joint Air-to-Ground Missile. JAGM ha la capacità di scegliere i veicoli da colpire senza intervento umano. A marzo, il Pentagono ha richiesto i fondi al Congresso per costurire 1051 JAGM al costo di 360 milioni di euro.
E l’aviazione? I test sono tutti concentrati sul progetto “SkyBorg” (il nome dice tutto): una versione senza pilota dell’F-16 in grado di combattere per conto suo.
Fino a ieri, i militari che volessero provocare un’esplosione in un sito remoto dovevano decidere come e quando colpire: con un aereo? Un missile? Una nave? Un carro armato? Dovevano poi dirigere la bomba, puntare, azionare un comando.
Droni e sistemi come Sea Mob stanno tagliando completamente fuori gli umani da decisioni del genere. L’unica decisione che resta a un comando militare (ma dovrebbe essere presa non prima e non contro il consenso di tutti) è quando i robot saranno lasciati liberi di uccidere violando le famose leggi di Asimov, magari iniziando dai momenti in cui le comunicazioni radio si interrompono durante un’operazione di guerra.
Non è una questione ristretta ai soli Stati Uniti
Fin dagli anni ’90 Israele ha iniziato la progettazione di un sistema chiamato HARPY, che oggi diremmo di intelligenza artificiale. Il drone era in grado di sorvolare aree coperte da impianti radar e attaccarli indipendentemente. L’azienda ha poi venduto questo sistema alla Cina e ad altri paesi.
Nei primi anni 2000, l’Inghilterra sviluppò il missile Brimstone, capace di trovare veicoli nemici sul campo di battaglia e “stabilire” quali colpire.
L’anno scorso, 2018, il Presidente della Russia Vladimir Putin ha parlato di un drone sottomarino equipaggiato con armamenti nucleari, aprendo ad uno scenario in cui un dispositivo automatico possa avere nella sua dotazione la più letale arma mai realizzata dagli esseri umani. E d’altra parte lo stesso Putin ha ammesso che la nazione capace di sviluppare la migliore AI “diventerà padrona del mondo”.
La Cina non si è lasciata andare a grandi dichiarazioni, ma il fatto che sia un’avanguardia nell’intelligenza artificiale fa comunque riflettere. Si stima che diventerà il paese leader in questo campo nei prossimi 10 anni, e presto potrebbe sfruttare militarmente la cosa.
La guerra fredda tecnologica
Il timore di essere superati da paesi come Cina o Russia ha spinto gli USA a spendere molto nello sviluppo dell’AI: 600 milioni di dollari nel 2016, 800 nel 2017 e oltre 900 quest’anno. Il Pentagono non ha rivelato dettagli su questi sforzi, ma dalle interviste ufficiali è facile evincere che dagli sviluppi delle ricerche sull’AI deriveranno molte soluzioni di tecnologia militare, anche se non subito pronte a prendere del tutto il comando delle operazioni.
Eppure potrà succedere
L’intenso investimento economico che gli USA stanno affrontando per riguadagnare la certezza di una supremazia tecnologica (e quindi militare) moltiplica i rischi di forzare la mano alle macchine, o lasciare che la forzino. Robert Work lo dice con chiarezza: “ci sarà un momento in cui le macchine ‘commetteranno un errore’ indotto da noi, perchè non stiamo puntando ad avere la macchina perfetta, solo quella più utile nel minor tempo possibile”.
L’idea che delle macchine possano intervenire completamente da sole per decidere di uccidere degli esseri umani violando le leggi della robotica di Asimov appartiene ancora ad un immaginario che la rifiuta totalmente: qualcosa di vicino a pellicole apocalittiche come Terminator. Ma non si tratta di lontane possibilità.
In un pianeta di nazioni sempre più competitive in questo campo, la possibilità che macchine autonome possano produrre un danno agli avversari anche in termini di vite umane è concreta. Non è bello da dire, ancora meno lo è da sentire, ma è così.