FOTO24 VIDEO24 2

Quanto beve l'intelligenza artificiale

Numerosi studi si interrogano sul costo ambientale di questo salto nel futuro

Getty

Mentre il mondo si interroga su come sarà la nostra vita tra un paio d'anni o forse meno dopo l'avvento massiccio dell'intelligenza artificiale, le Università di Texas e Colorado in uno studio congiunto sollevano dubbi e criticità sull'impronta idrica e non solo di queste tecnologie. 

ChatGPT, secondo l'analisi, "beve" una bottiglia da 500 ml di acqua fresca per ogni semplice conversazione con un utente composta da 20-50 domande.

Beve nel senso che i modelli di intelligenza artificiale conversazionale mettono una tale pressione sui server e i processori che per raffreddarli è necessario utilizzare acqua fresca, molto spesso potabile per evitare di esporre gli ambienti a batteri o processi corrosivi. Se mezzo litro può sembrare poco, moltiplicare per milioni di interazioni ogni giorno può aiutare a capire meglio il quadro. In un mondo dove l'acqua potabile è risorsa scarsa, sottolinea lo studio, per 4 miliardi di persone che ne sono colpite per almeno un mese all'anno.

La problematica esisteva già prima di queste tecnologie ad alto dispendio, tanto che secondo i calcoli la sola Google per raffreddare i suoi data server negli Stati Uniti nel 2021 avrebbe impiegato 12,7 miliardi di litri d'acqua, di cui il 90% potabile. Sufficienti, per fare un paragone, per produrre 5,7 milioni di Tesla o 6,9 milioni di Bmw secondo i dati comunicati dai due gruppi.

Pexels

Tornando a ChatGPT secondo le stime degli analisti delle due università di Texas e Colorado per addestrare la versione 3 del modello linguistico conversazionale sono stati consumati 700.000 litri d'acqua, più o meno quanto necessario per riempire la torre di raffreddamento di una centrale nucleare.

Da una parte il consumo d'acqua, specialmente attraverso evaporazione, dovuto al raffreddamento dei server, ma dall'altra anche il consumo energetico. Su questo aspetto interviene un altro documento elaborato dall'Università americana di Stanford che si interroga sul costo ambientale di questo salto quantico nel futuro dell'umanità. Nel caso di ChatGPT versione 3 le emissioni per addestrarlo sarebbero ammontate a 502 tonnellate di Co2, il concorrente Gopher di Google addestrato su 280 miliardi di parametri ne avrebbe emesse 352.

Un problema che si era già posto ai tempi dei Bitcoin, criptovaluta energivora per eccellenza, poi vietata per questo motivo in diverse parti del mondo nella sua attività di mining cioè di creazione di nuova valuta. Da quel momento ne sono state inventate altre con tecnologia più efficiente, come la seconda più diffusa al mondo Ethereum che consuma secondo stime oltre il 90% meno di Bitcoin.

Gli studiosi di Stanford ma anche quelli delle Università della California e Colorado richiedono maggiore trasparenza sui numeri. In epoca di siccità, di scarsità d'acqua, di transizione energetica green, la tecnologia può proiettarci nel futuro ma dovrebbe arginare il più possibile gli impatti sul Pianeta.

Espandi