On a analysé près d'un demi-million de conversations entre humains et IA pour comprendre ce que personne ne montre : le vrai coût énergétique de chaque modèle.
Vous posez une question simple à une IA. Selon le modèle qui vous répond, la consommation d'énergie peut varier du simple au quarante-neuf. Et la réponse ? Quasi identique.
Tapez votre question comme vous le feriez sur ChatGPT. Notre moteur détecte la tâche et vous recommande le modèle optimal.
Aujourd'hui, les utilisateurs choisissent un modèle d'IA par habitude ou par réputation. Nos données montrent que ce choix a un coût caché, souvent énorme.
| Modèle utilisé | Alternative sobre | Écart |
|---|---|---|
| Grok-4-fast 14.5 Wh/1k tokens |
Gemma-3-4b 0.08 Wh/1k tokens |
x172 |
| Gemini 1.5 Pro 11.1 Wh/1k tokens |
Gemma-3-4b 0.08 Wh/1k tokens |
x131 |
| Llama 3.1 405B 9.1 Wh/1k tokens |
LFM2-8b 0.08 Wh/1k tokens |
x113 |
| Claude 4.5 Sonnet 3.9 Wh/1k tokens |
Gemma-3-4b 0.08 Wh/1k tokens |
x47 |
| GPT-4o 3.9 Wh/1k tokens |
LFM2-8b 0.08 Wh/1k tokens |
x49 |
Notre force : croiser l'énergie mesurée, la qualité perçue par les utilisateurs, et la transparence des organisations. Aucune de ces trois dimensions ne suffit seule.
Notre algorithme de clustering révèle un contraste saisissant : la majorité des modèles sont sobres, mais les plus visibles sont les plus gourmands.
Nos données montrent que choisir sobre c'est gagner ~85% d'énergie pour une perte de qualité inférieure à 5% sur la plupart des catégories. Profils identifiés par KMeans (silhouette optimale).
Quelques points de qualité en plus, mais jusqu'à 172x plus d'énergie. Notre moteur les recommande uniquement pour les prompts complexes (code, >100 mots, multi-questions) via le filtre de complexite.
Comment faire un choix éclairé si les fournisseurs ne disent rien sur leurs pratiques énergétiques ? L'indice Stanford le confirme : la transparence reste l'exception.
En guidant simplement l'utilisateur vers le modèle adapté à sa tâche, les économies d'énergie sont spectaculaires et immédiates.
L'énergie gaspillée sur nos 495K conversations suffirait à :
L'utilisateur pose sa question normalement. En coulisses, notre pipeline ML détecte le type de tâche et recommande le modèle le plus efficient, sans compromis sur la qualité.
| Tâche | On recommande | Énergie |
|---|---|---|
| Science & Tech | gpt-5.4-nano | 0.08 Wh |
| Education | mistral-small-2603 | 0.35 Wh |
| Business | gemini-2.0-flash | 3.93 Wh |
| Loisirs | mistral-small-2603 | 0.35 Wh |
| Arts | minimax-m2.5 | 0.73 Wh |
| Sante | nemotron-3-super | 0.38 Wh |