Sarà capitato a tutti almeno una volta di rispondere “grazie” o “per favore” a ChatGPT, Gemini o altri modelli linguistici simili, perché ci relazioniamo con l’AI come se fosse un essere umano contenuto nel nostro device. Questa nostra abitudine «educata» tuttavia, ha un grande impatto sotto il punto di vista energetico e monetario.
Il motivo
La risposta è semplice: l’utilizzo di ogni singola richiesta a un chatbot costa denaro ed energia, e aggiungere parole accessorie e di forma come può essere un ringraziamento aumenta l’energia consumata dal server.
Questo perché ogni parola viene elaborata dal sistema, ma ogni calcolo di quest’ultimo, consuma energia e costa soldi.
La risposta dell’AD
A sottolineare ulteriormente il concetto ci ha pensato direttamente l’amministratore delegato di ChatGPT, Sam Altman, che rispondendo a un dubbio di un utente di X, ha confermato il grande dispendio di energia. Nello specifico Altman ha risposto: «decine di milioni di dollari» a cui ha aggiunto: «ben spesi, non si sa mai», riferendosi con ironia alla preoccupazione che molti utenti hanno su come potrebbero reagire le varie AI se un giorno prendessero coscienza.
Ma quanto consumano le AI?
I consumi effettivi dell’AI non si conoscono con precisione, dato che le aziende sono poco trasparenti sui dati. Tuttavia secondo le stime dell’Agenzia Internazionale dell’Energia (IEA), per generare ogni singolo testo, un modello di intelligenza artificiale consuma circa 0,3 Wh (Watt per ora), che salgono a 1,7 per creare un’immagine e a ben 115 Wh per generare un video di circa 5 secondi in bassa qualità. Per fare un paragone, caricare uno smartphone richiede 15 Wh, mentre un pc può usarne circa 60 Wh.
Il consumo idrico
Le AI e i vari chatbot, per ogni risposta generata danno vita a un meccanismo complesso che parte da dei server molto grandi. Questi. oltre alla grande quantità di energia elettrica, necessitano di molta acqua per raffreddarsi: secondo uno studio dell’Università della California, una mail di 100 parole scritta da ChatGPT può consumare più di mezzo litro d’acqua.
I ricercatori della Sapienza hanno aggirato i sistemi di sicurezza di 25 modelli linguistici con la poesia
Bisogna smettere di essere gentili con l’AI?
Pensando in modo binario sarebbe ovvia la risposta: evitare di chiedere «grazie» e «per favore» eluderebbe questo grande dispendio di energia e soldi. Tuttavia, studi recenti hanno dimostrano che rispondere con scortesia ai chatbot potrebbe peggiorare le nostre interazioni con essi, con maggiore possibilità di generare risposte imprecise o addirittura si potrebbe arrivare all’interruzione della conversazione per ragioni di sicurezza. Questo perché quando ci esprimiamo in maniera cortese, siamo più accurati nella nostra richiesta, rendendo più facile il compito all’AI, e di conseguenza consumando meno energia.
© RIPRODUZIONE RISERVATA



Leave feedback about this