I software di Intelligenza Artificiale come ChatGPT di OpenAI e Bard di Google consumano molta energia e richiedono data center di grandi dimensioni. Per questo motivo il raffreddamento di queste strutture comporta un enorme spreco di acqua.
Ad esempio, uno studio dell’Università del Colorado Riverside e dell’Università del Texas ad Arlington ha calcolato che l’addestramento di chatGPT-3 ha consumato 700.000 litri di acqua dolce per il raffreddamento del data center. Un enorme spreco di acqua se consideriamo attualmente a che ritmo viene utilizzato.
Per fare una comparazione, è una quantità sufficiente di acqua che serve per realizzare 370 auto BMW o 320 Tesla.
Mentre lo scambio di conversazioni di un utente medio con ChatGPT equivale al consumo di una bottiglia d’acqua.
Data la popolarità senza precedenti di questi chatBOT
, i ricercatori temono che tutto questo consumo eccessivo di acqua possa avere un impatto preoccupante sull’approvvigionamento idrico a causa della crescente siccità e delle preoccupazioni ambientali.I ricercatori prevedono inoltre che questi consumi aumenteranno ulteriormente con i modelli più recenti, come GPT-4, che si basano su un set e un’elaborazione dei dati più ampi rispetto al software precedente. I problemi relativi al consumo di acqua non sono limitati ai modelli OpenAI.
Gli studiosi hanno anche fatto calcoli sul consumo di acqua di Google. I suoi data center statunitensi hanno bevuto complessivamente 12,7 miliardi di litri di acqua dolce nel 2021, di cui circa il 90% potabile.
L’impatto ambientale dei modelli di intelligenza artificiale non può più rimanere fuori dal radar, per questo motivo il problema deve essere affrontato quanto prima.