L’energia consumata dall’intelligenza artificiale di Google può raggiungere livelli paragonabili a quelli dell’intera Irlanda. Lo avete letto nel titolo, lo ribadisco qui: le cifre parlano chiaro. Con l’evoluzione e l’espansione dell’AI, il settore sta affrontando una sfida energetica proibitiva.
Più le aziende tecnologiche continuano a sviluppare e integrare l’AI in una vasta gamma di servizi, dal semplice motore di ricerca alle applicazioni più complesse, più il consumo energetico associato diventerà una questione cruciale. La domanda è: come ne veniamo fuori?
L’ascesa dei chip AI personalizzati
La tendenza è chiara ed è in crescita: le aziende impegnate nell’AI stanno sviluppano i propri chip per soddisfare le esigenze sempre più gravose dei sistemi. Giganti come Google e Amazon hanno già i loro chip AI personalizzati. E non sono gli unici: circolano voci insistenti sul fatto che Microsoft potrebbe svelare il suo hardware per chip il mese prossimo.
La stessa Microsoft ha anche investito pesantemente in OpenAI, che, secondo alcune fonti, è nelle fasi iniziali di sviluppo dei propri chip o sta considerando l’acquisizione di una società di semiconduttori per realizzarli.
Ma cosa significa tutto ciò per il nostro pianeta? Significa che ci sarà un aumento significativo nell’impronta energetica dell’industria AI.
L’impronta energetica dell’industria AI
Lo dico in parole semplici: se l’AI generativa viene integrata in ogni ricerca su Google, la domanda di energia dell’azienda toccherà vette incredibili. In un articolo pubblicato su Joule (ve lo linko qui), i ricercatori stimano che l’integrazione di un chatbot simile a ChatGPT in ogni ricerca Google richiederebbe ben 512,820 server NVIDIA A100 HGX. Tradotto in numeri? Significa oltre 4 milioni di GPU. Fate due conti: con una domanda di energia di 6,5 kW per server, il consumo giornaliero di elettricità sarebbe di 80 GWh, il consumo annuo sarebbe di 29,2 TWh. Sono quelli di un’intera nazione come l’Irlanda.
Quando l’AI “beve” di più
Gli strumenti AI hanno una fase di formazione iniziale seguita da una fase di inferenza. Mentre la fase di formazione è la più energivora e ha rappresentato il fulcro della ricerca sulla sostenibilità dell’AI fino ad ora, la fase di inferenza è quando questi strumenti generano output basati sui dati su cui sono stati formati.
Questa fase, spesso trascurata, merita assoluta attenzione. Perché questa fase aumenterà a dismisura, e finirà per surclassare la precedente. Le stime sulla “fame energetica” dei vari sistemi di intelligenza artificiale vanno riviste.
Non possiamo permetterci di ignorare l’energia consumata da questi sistemi, progresso tecnologico e responsabilità ambientale vanno bilanciati: solo così potremo dare alla tecnologia una reale possibilità di migliorare il nostro futuro.