L’intérêt pour les intelligences artificielles, notamment les modèles génératifs qui produisent textes, images, sons et vidéos, ne cesse de croître. D’une simple commande, ces outils produisent en quelques secondes ce que l’humain réalise en plusieurs heures. Mais cette capacité technologique n’est pas sans coût énergétique, une consommation que nombreux sont loin d’imaginer.
Les années 2022 et 2023 ont été marquées par l’essor des intelligences artificielles (IA), dont le célèbre ChatGPT de l’entreprise OpenAI. Pour interagir correctement avec les utilisateurs, ces technologies s’appuient sur des milliards de paramètres et mobilisent des milliers de serveurs. Rien que pour ChatGPT, on parle de 3 617 serveurs, chacun affichant souvent une puissance allant de 6 à 10,2 kW (serveurs NVIDIA).
Au total, la puissance électrique pourrait osciller entre 21,7 à 36,8 MW. Face à de tels chiffres, des interrogations suscitent quant à la consommation électrique de ces nouvelles technologies. Une étude récente lève le voile : leur consommation électrique est colossale, et pourrait, dans le futur, rivaliser avec celle de certains pays.
À lire aussi ChatGPT ferait-il un bon ministre de la transition énergétique ?Jusqu’à 564 MWh par jour
Le cycle de vie d’une IA se compose de deux phases majeures. La première est appelée « formation », correspondant à l’étape durant laquelle le système est entrainé à répondre à une requête. Selon l’étude, cette opération peut nécessiter des centaines de mégawattheures (MWh), voire plus. L’outil ChatGPT-3, par exemple, aurait requis 1 283 MWh durant sa formation. Cette quantité d’énergie correspond au besoin moyen d’environ 274 foyers français pendant une année entière. L’IA appelée OPT (Open Pre-trained Transformer) de l’entreprise Meta a, quant à elle, nécessité environ 324 MWh d’électricité durant son entrainement.
La seconde phase est appelée « inférence », qui concerne l’utilisation quotidienne de l’IA par le grand public. Là encore, la facture énergétique est salée, particulièrement pour les grands modèles comme GPT. Sur cet outil, une seule requête coûterait en énergie 2,9 Wh, contre 0,3 Wh seulement pour une recherche ordinaire sur Google. En se basant sur le volume de requêtes journalières enregistrées en début d’année, ChatGPT afficherait une consommation quotidienne de 564 MWh. Nous pouvons donc estimer à près de 206 GWh la consommation annuelle d’électricité de ChatGPT, soit à-peu-près autant que la République centrafricaine, le Bénin ou le Sierra-Leone.
À lire aussi Bientôt des data centers flottants moins énergivores ?Une consommation comparable à celle d’un pays entier
Si le futur énergétique des IA reste encore incertain, une chose est sûre : leur présence et leur efficacité ne feront que croître. Afin d’anticiper cette évolution, l’étude a établi des scénarios, dont l’un s’appuie sur le nombre de serveurs fournis aux géants technologiques concepteurs d’IA.
NVIDIA, leader en la matière, devrait livrer cette année près de 100 000 serveurs représentant une puissance de 650 à 1 020 MW. Mais d’ici 2027, la demande croissante pourrait porter ce chiffre à 1,5 million d’unités, soit une puissance de 9,75 à 15,3 GW. En termes de consommation annuelle, cela équivaudrait à 85,4 à 134 TWh. Pour contextualiser, l’IA pourrait, d’ici là, rivaliser avec la consommation annuelle de certains pays tels que la Norvège, l’Argentine ou la Belgique qui ont respectivement consommé 122 TWh, 121 TWh et 82 TWh en 2020.
À lire aussi Comment cette mine de charbon abandonnée refroidit un data center à moindre coût
Cet article est à relativiser. L’IA generative n’est pas toute l’IA. De nouveaux modèles émergent (zéro shot/one shot) qui cherchent à réduire la consommation électrique et des technologies Id’infrastructures innovantes aident aussi à limiter l’impact.