Par Ludovic Moulard, Directeur Développement Durable chez fifty-five
L’IA générative bouleverse le marketing, de l’idéation créative à la production de contenus en passant par la personnalisation et la performance. Mais derrière son apparente fluidité se cache un coût environnemental abyssal, encore invisible, que nous ne pouvons plus nous permettre d’ignorer. Depuis la sortie de ChatGPT-3 en novembre 2022, cette technologie a connu une adoption sans aucun précédent, atteignant 100 millions d’utilisateurs en 2 mois. Et pourtant, son impact reste largement sous-estimé : une seule recherche à l’aide d’un chat bot de type LLM consomme en moyenne 10 fois plus d’électricité qu’une recherche classique sur Google. À l’échelle des milliards de requêtes générées chaque mois, l’empreinte devient considérable. Il est temps de sortir du mythe de la dématérialisation propre.
Rendre visible l’invisible
The Brandtech Group, fifty-five et Scope3 ont mis au point une étude pour quantifier la consommation énergétique des différents usages de l’IA générative. Celle-ci est articulée en trois volets : une méthodologie pour estimer l’impact carbone de deux cas d’usage précis (entraînement et inférence inclus), un calculateur open source mis à disposition de tous les acteurs du marché pour mesurer concrètement leur impact et des recommandations concrètes pour une IA générative plus durable.
Le manque de transparence des fournisseurs des modèles d’IA rendant encore très difficile l’évaluation précise de l’empreinte carbone, l’étude s’est principalement portée sur les centres de données qui alimentent les modèles d’IA et qui représentent aujourd’hui l’immense majorité de l’impact environnemental de cette technologie.
En 2023, les data centers représentaient 1 à 2% de la consommation électrique mondiale, soit l’équivalent de 17 millions de foyers. Cette demande croît rapidement : d’après l’estimation de Goldman Sachs Research (qui n’est pas la plus élevée), elle devrait augmenter de 160% d’ici 2030, atteignant 3 à 4% de la consommation mondiale. Aux États-Unis, les data centers consommaient 3% de l’électricité nationale en 2022, un chiffre qui pourrait grimper à 8% en 2030 si l’on poursuit le développement de l’IA tel que prévu, nécessitant près de 50 milliards de dollars d’investissements en capacité électrique. Il s’agit de la plus forte hausse de demande énergétique depuis une génération, et du fait de la rapidité de ces changements elle passe presque exclusivement par des capacités à base d’énergies fossiles (gaz et charbon).
Des data centers aux usages marketing
La méthodologie adoptée a été mise au point pour calculer l’empreinte carbone de l’IA générative en se concentrant sur deux indicateurs environnementaux (l’électricité et les émissions carbone) et sur les deux principales phases du cycle de vie d’un modèle : l’entraînement (lorsque le modèle est alimenté par d’immenses volumes de données pour identifier des motifs et développer ses capacités) et l’inférence (la phase où le modèle génère du contenu selon les requêtes). Les prochains enrichissements de l’étude intégreront également la consommation d’eau liée au refroidissement des data centers et les matériaux non renouvelables utilisés dans le matériel informatique.
On parle souvent de l’impact énergétique des inférences – à raison, car pour les modèles les plus utilisés (comme la collection de modèles LLaMA 3), plus de 90% des émissions sont émises pour la génération d’un modèle de données. L’étude révèle notamment qu’une simple requête textuelle représente en moyenne 3g de CO₂, mais ce chiffre peut grimper à 100g ou plus pour des générations complexes, telles que celles qui font appel à du raisonnement, la génération d’images ou de vidéos. A titre d’exemple, pour un grand distributeur publiant chaque année 300 000 nouveaux produits en plusieurs langues, automatiser cette tâche représenterait plus de 50 tCO₂e, soit l’équivalent de 30 allers-retours Paris–New York.
Mais cette vision occulte un aspect majeur : l’empreinte massive liée à la phase d’entraînement, encore trop souvent négligée. L’entraînement d’un modèle comme LLaMA 3.2 (90 milliards de paramètres) peut dépasser 500tCO₂ par session – soit l’équivalent de 60 allers-retours de la Terre en voiture. Et ce n’est qu’une partie du problème. En réalité, un modèle n’est pas entraîné une fois, mais 10, 20, voire 50 fois lors de la phase de R&D. Sans oublier les dizaines de nouveaux modèles publiés chaque mois, parfois avec peu de cas d’usage avérés. Le résultat : des milliers d’entraînements très coûteux, souvent invisibles, qui pèsent lourdement sur le bilan carbone global de l’IA générative.
Vers un usage plus éclairé : des recommandations concrètes
L’étude propose quatre leviers d’action principaux (et simples) pour réduire l’impact environnemental sans freiner l’innovation :
- Choisir avec soin la localisation des centres de données : à performances égales, un data center alimenté par un mix électrique reposant sur le charbon (comme en Inde) peut émettre 15 fois plus de CO₂ qu’un centre fonctionnant à l’hydroélectricité ou au nucléaire (comme en France).
- Réduire les itérations superflues : en formant les équipes au prompt design et en les sensibilisant à l’impact énergétique de leurs usages, on évite des allers-retours inutiles et énergivores
- Optimiser la forme des outputs : plus une requête est claire, concise et bien ciblée, moins le raisonnement demandé au modèle est complexe. Or, l’impact environnemental d’une génération est quasi proportionnel à la taille du résultat produit : précision rime ici avec sobriété.
- Adapter la taille du modèle : la plupart des tâches courantes ne nécessitent pas d’exploiter la dernière génération de modèle pour obtenir un niveau de qualité suffisante
Mais au-delà de ces optimisations, si l’IA générative peut réellement accélérer l’innovation sociale, soutenir l’accessibilité, améliorer la qualité de vie et démocratiser l’accès à la connaissance, cela ne se fera pas sans discernement. Les entreprises ont un rôle décisif à jouer : évaluer chaque cas d’usage non seulement selon sa performance, mais aussi à l’aune de sa valeur humaine, sociale, économique et environnementale. Mesurer. Choisir. Rationaliser. rois étapes simples pour mettre la puissance de l’IA au service d’un futur plus sobre – et plus utile.