Siamo nel 2025, e porre una domanda a ChatGPT è diventato naturale come chiedere al barista un caffè al volo. Ma mentre il barista consuma pochi chicchi e qualche centesimo d’energia, l’IA genera risposte con un “conto” molto meno visibile, in termini economici, energetici e anche culturali.
Secondo le ultime stime del settore, una singola richiesta a un modello avanzato come GPT-4 può consumare dai 0,5 ai 5 wattora (Wh), in media abbastanza per alimentare una lampadina LED per alcune decine di minuti.
Secondo dati di OpenAI e di analisi indipendenti, ChatGPT gestisce oltre 200 milioni di interazioni al giorno. Se ognuna di queste consumasse anche solo 1 Wh, parliamo di 200 megawattora giornalieri, quanto una piccola città europea in 24 ore. Per l’utente medio, ChatGPT è gratuito o incluso in un abbonamento mensile e forse questo favorisce ancor più l’uso talvolta spropositato del mezzo.
Le domande più comuni? Secondo un’analisi dei trend di utilizzo:
- 35% riguarda compiti di scrittura e comunicazione: mail, testi, post social;
- 25% riguarda supporto tecnico o codifica;
- 20% per scopi educativi (studio, spiegazioni);
- 10% per curiosità culturali o domande da trivia;
Il restante 10%? Conversazioni casuali, giochi, richieste assurde.
L’intelligenza artificiale generativa ha il potere di elevare l’ingegno umano, democratizzare il sapere e supportarci nei compiti complessi. Ma oggi, spesso viene usata per scrivere bio su Tinder o scegliere che film guardare la sera. Nulla di male, certo — anche il divertimento ha valore — ma forse vale la pena chiederci: stiamo usando questo strumento rivoluzionario nel modo più corretto?
E se ogni nostra domanda avesse un piccolo prezzo, ben visibile, cambierebbe forse qualcosa?
Questo non significa dunque smettere di usarlo, ma farlo con consapevolezza. Magari, prima di chiedergli “che ore sono a Tokyo?”, o altre banalità, potremmo fare uno sforzo e cercare la risposta alle nostre domande semplicemente guardandoci attorno, proprio come facevamo fino a poco fa.