I software di Intelligenza Artificiale come ChatGPT di OpenAI e Bard di Google consumano molta energia e richiedono data center di grandi dimensioni. Per questo motivo il raffreddamento di queste strutture comporta un enorme spreco di acqua.
Ad esempio, uno studio dell’Università del Colorado Riverside e dell’Università del Texas ad Arlington ha calcolato che l’addestramento di chatGPT-3 ha consumato 700.000 litri di acqua dolce per il raffreddamento del data center. Un enorme spreco di acqua se consideriamo attualmente a che ritmo viene utilizzato.
Per fare una comparazione, è una quantità sufficiente di acqua che serve per realizzare 370 auto BMW o 320 Tesla.
Mentre lo scambio di conversazioni di un utente medio con ChatGPT equivale al consumo di una bottiglia d’acqua.
Un problema serio per l’ambiente
Data la popolarità senza precedenti di questi chatBOT, i ricercatori temono che tutto questo consumo eccessivo di acqua possa avere un impatto preoccupante sull’approvvigionamento idrico a causa della crescente siccità e delle preoccupazioni ambientali.
I ricercatori prevedono inoltre che questi consumi aumenteranno ulteriormente con i modelli più recenti, come GPT-4, che si basano su un set e un’elaborazione dei dati più ampi rispetto al software precedente. I problemi relativi al consumo di acqua non sono limitati ai modelli OpenAI.
Gli studiosi hanno anche fatto calcoli sul consumo di acqua di Google. I suoi data center statunitensi hanno bevuto complessivamente 12,7 miliardi di litri di acqua dolce nel 2021, di cui circa il 90% potabile.
L’impatto ambientale dei modelli di intelligenza artificiale non può più rimanere fuori dal radar, per questo motivo il problema deve essere affrontato quanto prima.