Analyse énergétique · 2025–2026
Pas toujours. Tout dépend de ce que vous faites — et du nombre de pages web que vous évitez de charger.
Les chiffres qui surprennent
Consommation par requête standard. Le référentiel de base depuis 20 ans.
En 12 mois, Google a divisé le coût d'une requête Gemini par 33. Déjà sous le seuil Google Search.
L'équivalent de 110 recherches Google — pour une seule question à un modèle de raisonnement.
Pour une question simple, Google gagne. Dès que vous devez ouvrir plusieurs onglets, lire et synthétiser — l'IA devient énergétiquement plus sobre. L'inférence coûte une transaction unique. La navigation, c'est une accumulation continue.
Au-delà de 2 à 3 pages consultées, le bilan énergétique penche en faveur de l'IA.
"Chaque mot généré est une promesse faite à l'environnement. La question n'est plus ce que l'IA peut faire, mais ce qu'elle doit faire."
Moins d'énergie sur mobile quand l'IA remplace une recherche complexe multi-pages
Consommation par modèle
L'écart entre un Llama 8B et un modèle de raisonnement dépasse un facteur 1 000. La sobriété numérique commence par choisir le bon outil.
Les barres sont proportionnelles à 40 Wh (max estimé GPT-5). L'échelle logarithmique masquerait les faibles valeurs — ici représentées linéairement pour l'honnêteté visuelle.
L'IA n'est plus structurellement hors de prix. Le problème, c'est quand on surdimensionne le modèle par rapport à la tâche.
L'empreinte invisible — l'eau
Ce qui semble virtuel a une soif bien réelle. Un quart de millilitre par interaction. Multiplié par des milliards, l'impact devient océanique — entre 4,2 et 6,6 milliards de m³ d'ici 2027.
Demande mondiale projetée en 2027. Dépasse la consommation annuelle totale du Danemark.
Engagement de Meta : reconstituer plus d'eau qu'ils n'en consomment d'ici 2030.
PUE moyen de Google. Seulement 9% de l'énergie totale part dans le refroidissement et l'éclairage.
5 leviers concrets
L'UCPH a analysé 400 000 architectures. Choisir les bonnes structures dès le départ économise 70 à 80% d'énergie sans perte de précision.
Le modèle n'active que 5 à 10% de ses neurones par token. Jusqu'à 100 fois moins d'énergie que les modèles denses classiques.
Réduire la précision numérique divise la mémoire par 4 et la consommation de 60 à 80%. Suffisant pour 90% des usages.
Le TPU v7 "Ironwood" de Google est 30 fois plus efficace que le premier TPU. Calcul tensoriel en hardware — pas en logiciel.
Remplacer l'air par le liquide réduit l'infrastructure de 40% et permet des densités de rack 10 fois supérieures.
Les chercheurs de Copenhague ont utilisé une IA pour prédire quels modèles seraient efficaces — sans les entraîner tous. L'outil de sa propre décarbonation.
Pression sur les réseaux électriques
1,5% de l'électricité mondiale. Attendu à 945 TWh d'ici 2030.
Un cinquième de l'électricité nationale. Prévu à 32% dès 2026.
98% renouvelables + refroidissement naturel. TCO jusqu'à 80% inférieur à l'Europe centrale.
L'entraînement est ponctuel. L'utilisation quotidienne représente 70 à 90% de l'énergie totale.
"The intelligence we create
should not come at the cost
of the world we inhabit."
Editorial Intelligence — Bioluminescent Archive · 2026