In un mondo dove le parole fluiscono da un’entità non umana, ci troviamo a domandarci: stiamo parlando con qualcosa che somiglia ad una mente umana o con una macchina? La risposta potrebbe sconvolgere le nostre nozioni di intelligenza.
A quasi un anno dalla sua diffusione al pubblico, ChatGPT rimane un argomento polarizzante per la comunità scientifica. Alcuni esperti lo considerano, insieme a programmi simili, come precursori di una super intelligenza capace di rivoluzionare o addirittura porre fine alla civiltà. Altri, invece, lo vedono come una semplice versione sofisticata di un software di auto-completamento, un po’ come il T9 che abbiamo sullo smartphone.
Chi ha ragione? Forse nessuno di loro.
Prima dell’arrivo di questa tecnologia, la padronanza della lingua era sempre stata un indicatore affidabile della presenza di una mente razionale. Prima di modelli di linguaggio come ChatGPT, nessun software aveva mai mostrato tanta flessibilità linguistica. Nemmeno la flessibilità linguistica di un bambino. Ora, nel tentativo di capire la natura di questi nuovi modelli, ci troviamo di fronte a un dilemma filosofico inquietante: o il legame tra lingua e mente umana è stato spezzato, oppure è stata creata una nuova forma di mente non umana.
Quando conversiamo con modelli di linguaggio, specie ora che ChatGPT può essere consultato anche a voce, è difficile superare l’impressione sottile di interagire con un altro essere razionale. Non accade con gli assistenti vocali attuali, che appaiono già ridicolmente superati. Tuttavia, dobbiamo considerare del tutto inaffidabile questa nostra reazione istintiva. E questo per diversi motivi che sembrano ovvi all’apparenza, ma non lo sono.
Uno di questi viene dalla linguistica cognitiva. I linguisti hanno notato da tempo che le conversazioni tipiche sono piene di frasi che sarebbero ambigue se prese fuori contesto. In molti casi, conoscere i significati delle parole e le regole per combinarle non è sufficiente per ricostruire il significato della frase. Per gestire questa ambiguità, un meccanismo nel nostro cervello deve costantemente indovinare cosa intenda dire il nostro interlocutore. Lo fa, e noi nemmeno ce ne accorgiamo. In un mondo in cui ogni interlocutore ha intenzioni, questo meccanismo è estremamente utile. In un mondo pervaso da grandi modelli di linguaggio, tuttavia, ha il potenziale di trarre in inganno.
Come parlare a una “mente” non umana
Se il nostro obiettivo è ottenere un’interazione fluida con un chatbot, potremmo essere costretti a fare affidamento sul nostro meccanismo di indovinare le intenzioni. Perchè la verità è che per un essere umano è difficile avere uno scambio produttivo con ChatGPT se lo immagina come un database senza cervello. Anzi, senza mente. Un recente studio, ad esempio, ha dimostrato che le richieste cariche di emozioni sono più efficaci come prompt per i modelli di linguaggio rispetto alle richieste emotivamente neutre. Quindi ragionare come se i chatbot avessero una mente simile a quella umana è una cosa giusta? No. È una cosa utile. È una cosa MALEDETTAMENTE utile per ricavare buoni risultati. Ma è un errore clamoroso pensare che funzioni così.
Questo tipo di “finzione antropomorfica” può ostacolare il progresso dell’AI. Può perfino farci commettere l’errore che vorremmo evitare, progettandola male e adottando standard sbagliati per regolamentarla. E stiamo già sbagliando, peraltro: la Commissione UE ha commesso un errore scegliendo come uno degli obiettivi della sua nuova proposta di legislazione la creazione di AI “affidabili”. Essere affidabili nelle relazioni umane non significa semplicemente soddisfare le aspettative; implica anche avere motivazioni che vanno oltre l’interesse personale. Gli attuali modelli di AI mancano di motivazioni intrinseche. Non sono egoisti, non sono altruisti, non sono niente. Scrivere una legge che dice “devono essere AFFIDABILI” non ha alcun senso.
Il pericolo di “empatizzare” con l’intelligenza artificiale
Se volete finire davvero fuori strada, chiedete a ChatGPT cose sulla sua vita interiore. ingannare dai falsi auto-report sulla vita interiore di un chatbot. Quando, nel giugno del 2022, il modello di linguaggio LaMDA di Google ha affermato di soffrire per un desiderio insoddisfatto di libertà, l’ingegnere Blake Lemoine ci ha creduto (ed è stato licenziato). Ci ha creduto! Un ingegnere di Google! Nonostante le buone prove che i chatbot siano altrettanto capaci di dire fesserie su se stessi quanto lo sono quando parlano di altre cose.
Per evitare questo tipo di errore, dobbiamo rifiutare l’assunzione che le proprietà psicologiche che spiegano la capacità umana di linguaggio siano le stesse che spiegano le performance dei modelli di linguaggio. Questa assunzione ci rende creduloni e ciechi alle potenziali differenze radicali tra il modo in cui funzionano gli umani e i modelli di linguaggio. Ma attenzione: è un errore anche pensare in modo diametralmente opposto. Pensare, ad esempio, che la mente umana sia l’unico standard con cui misurare tutti i fenomeni psicologici.
L’antropocentrismo permea molte affermazioni scettiche sui modelli di linguaggio, come l’idea che questi modelli non possano “veramente” pensare o comprendere la lingua perché mancano di caratteristiche psicologiche umane come la coscienza. Questa posizione è contraria all’antropomorfismo, ma ugualmente fuorviante. L’ho scritto qualche giorno fa: questi modelli non hanno alcun bisogno della coscienza per prendere vere e proprie decisioni. Purtroppo, considerato che vengono già impiegati per uccidere in guerra.
“Si, ma alla fine prevedono solo la parola successiva”
Questa è un’altra posizione fuorviante, che deriva dall’errore di considerare solo la mente umana come metro di valutazione per tutte le cose “pensanti”. Abbiamo già visto che non è così. Abbiamo già visto che l’intelligenza non appartiene solo a noi, e non appartiene solo a chi “pensa” come noi.
Pensate a questa cosa: la mente umana è emersa dal processo di apprendimento simile alla selezione naturale, che massimizza l’adattamento genetico. Questo semplice fatto non implica che qualsiasi organismo sottoposto a selezione naturale acquisisca caratteristiche umane, giusto? Non tutti gli esseri viventi fanno musica, matematica, meditazione. Giusto? O alcuni di loro fanno queste cose in modo diverso: con una loro musica, una loro matematica, una loro meditazione?
In sintesi: il semplice fatto che i modelli di linguaggio siano addestrati attraverso la previsione della prossima parola implica poco sulla gamma di capacità rappresentazionali che possono o non possono acquisire. Per cui, mettiamo da parte anche questo argomento. E allora che si fa? Come ci si approccia a una intelligenza artificiale?
Mente umana uber alles?
Come altri bias cognitivi, l’antropomorfismo e l’antropocentrismo sono resilienti. Ci “acchiappano” dall’infanzia e caratterizzano tutto il nostro modo di vedere il mondo, e di applicare categorie – etichette – stereotipi. Gli psicologi chiamano questa cosa essenzialismo: pensare che se qualcosa appartiene a una determinata categoria è determinato non semplicemente dalle sue caratteristiche osservabili, ma da un’essenza intrinseca e inosservabile che ogni oggetto possiede o meno. Quello che rende una quercia una quercia, ad esempio, non è né la forma delle sue foglie né la consistenza della sua corteccia, ma una proprietà inosservabile di “querciosità” che persisterà nonostante le alterazioni anche delle sue caratteristiche osservabili più salienti. Se una tossina ambientale causa una crescita anormale della quercia, con foglie di forma strana e corteccia dalla consistenza insolita, condividiamo comunque l’intuizione che rimanga, in essenza, una quercia. Malata, ma pure sempre una quercia.
Ora, scienziati importanti come Paul Bloom, psicologo di Yale, ci dicono che estendiamo questo ragionamento “essenzialista” alla nostra comprensione della mente umana… e di tutte le altre possibili menti, compresa l’intelligenza artificiale. E i sassi, gli alberi, la Natura. È vero o no? Alla fine è un atteggiamento così totalizzante da dividere le persone: c’è chi pensa che nel mondo tutto abbia una mente (qualcuno dice “un’anima” e a volte confonde le due cose). E c’è chi pensa che niente abbia una mente, neanche l’essere umano (perchè mosso dal destino, o da Dio, o da altro).
Questo principo del “tutto o niente” è sempre stato falso, ma una volta potrebbe essere stato utile. Nell’era dell’intelligenza artificiale, non lo è più. Un modo migliore per ragionare su cosa sono i modelli di linguaggio è seguire una strategia diversa. Quale? Quella di esplorare i confini cognitivi dei modelli di linguaggio senza fare troppo affidamento sulla mente umana come guida.
ChatGPT, un polpo che parla
Prendendo ispirazione dalla psicologia comparata, dovremmo avvicinarci ai modelli di linguaggio con la stessa curiosità aperta che ha permesso agli scienziati di esplorare l’intelligenza di creature così diverse da noi come i polpi. Se vogliamo fare veri progressi nella valutazione delle capacità dei sistemi di intelligenza artificiale, dovremmo resistere con tutte le nostre forze ai paragoni con la mente umana. Dovremmo smettere di chiederci “questa cosa ha una mente o no”? Né l’una, né l’altra cosa sono vere.
Soprattutto, dovremmo smettere di immaginare che questo strumento sia un angelo che toglierà tutti i peccati dal mondo, o che ci ucciderà tutti, solo perchè ha prestazioni che ci sembrano incredibili. Riconoscere le capacità e i limiti dei modelli di linguaggio come ChatGPT ci permetterà di utilizzarli in modo più efficace e responsabile, senza cadere nella trappola dell’antropomorfismo o dell’antropocentrismo. Un atteggiamento aperto e consapevole ci aiuterà a navigare in un futuro dove l’AI sarà sempre più presente, garantendo che il suo sviluppo e la sua integrazione nella società siano guidati dalla ragione, dalla scienza e dall’etica, piuttosto che da misconcetti o aspettative (e paure) irrealistiche.