- Génération IA
- Posts
- Comment calculer (vraiment) l'impact carbone de ChatGPT ?
Comment calculer (vraiment) l'impact carbone de ChatGPT ?
Quelle est la consommation d'une requête sur ChatGPT ? Combien de CO2 est émis pour générer une image avec une IA ? J'ai compilé toutes les données concrètesà disposition pour mieux cerner les enjeux et les usages.
Bonjour !
Aujourd’hui, on va mesurer ton empreinte écologique quand tu utilises l’intelligence artificielle, cool non ?
Tu en as sans doute déjà entendu parler. Et entre celles et ceux qui hurlent que l’IA est une “catastrophe écologique” et les autres qui scandent que l’IA va “sauver la planète”, tu ne sais peut-être plus où donner du cerveau.
Moi non plus d’ailleurs. Du coup j’ai fait des recherches.
Comme toujours, la réponse est plus nuancée. L’objectif de cette lettre n’est donc pas de te dire ce qui est bien ou mal, mais de récolter un maximum de données fiables pour t’aider à te faire ta propre opinion.
Et tu verras qu’il y a quelques surprises en route !
Je suis Benoît Raphaël, et un dimanche sur deux, avec Thomas Mahier (ingénieur en IA) et FlintGPT (robot un peu simplet mais gentil), je te propose de mieux comprendre et maîtriser l’intelligence artificielle.
Si on t’a transféré cette lettre, abonne-toi en un clic ici.
Ce dimanche voici comment tu vas devenir plus intelligent avec Génération IA :
→ Un dossier à conserver avec les chiffres de l’impact de l’IA sur le climat.
→ Un outil gratuit, très utile, et une astuce pour y accéder depuis la France.
→ Comment récupérer de vraies citations avec ChatGPT ?
Comme je voudrais être le plus exhaustif possible sur ce sujet important, je te propose de commencer par une question simple, et puis on va dérouler le fil.
Tout d'abord : est-ce que l'IA impacte l'environnement ? Alors oui, comme la plupart des technologies. La production et l'usage d'outils d'IA, comme tous les outils numériques, génère des gaz à effet de serre et consomme de l'eau.
On estime que les technologies d'information et de communication participent entre 2 et 6% des émissions de gaz à effet de serre. Mais le sujet fait débat. Par exemple cette étude de 2023 estime que le secteur participe à hauteur de 1,4% des émissions. Dans ce paysage, les centres de données participent aujourd'hui à 0,1% aux émissions globales à effet de serre, selon un article de Nature. C’est dans ce segment que se situe l’IA (pour environ 25%).
Dans ce schéma qui s’appuie sur des données de 2020 tu vois les émissions globales en gris (Global GHG), comparées à celles des technologies de l’information et de communication en violet (ICT sector), dans lequel on retrouve les technologies de l’IA en bleu (Source : Kaack 2022)
Pourquoi de tels écarts ? Parce que, comme tu vas le comprendre tout au long de cette lettre, c'est plus complexe que ça n'y parait.
Deuxième question, toujours super simple (je ne vais pas épuiser ton cerveau un dimanche, quand même) : quand je pose une question à ChatGPT, est-ce que j'émets des gaz à effet de serre ?
Alors, oui, si tu as bien suivi, en faisant tourner les centres de données dont nous venons de parler.
Mais la question c'est "combien ?".
Et puis celle qui vient juste après : c'est beaucoup ou pas beaucoup ?
Alors tout d'abord, on n'a pas vraiment les chiffres des principaux modèles. Ni Google, ni OpenAI ne donnent d'informations. Alors les chercheurs font des estimations, la plupart du temps avec les modèles d’IA open-source.
Et là, il faut encore faire une distinction.
Ce n’est pas l’entrainement des IA qu’il faut regarder, mais leur usage…
(Image réalisée avec Midjourney 6)
La plupart des chiffres que tu as vus passer dans les médias concernent en fait l'entrainement des modèles de langage (comme GPT-3 qui alimente la version gratuite de ChatGPT). Mais ce n’est qu’une petite pièce du puzzle.
Par exemple, l'entrainement de GPT-3 a émis environ 550 tonnes d'équivalent CO2 (selon les estimations de Sasha Luccioni, qui a compilé les infos sur le sujet dans une étude majeure dont on va reparler). Ça correspond à 500 aller-retours New-York/ San Francisco pour un passager.
Mais ce n’est pas ce qui pollue le plus.
L'entrainement d'un modèle n'intervient qu'une ou deux fois dans la vie d’un modèle d’IA. Tout le reste c'est l'usage (on appelle ça les coûts d'inférence), c'est à dire toi qui génères un texte avec ChatGPT par exemple.
Selon une étude d’Andrew Chien ( 2023), pour une charge de travail type ChatGPT, les émissions annuelles liées à l'inférence sont 25 fois supérieures à celles de l'entraînement de GPT-3.
Pour connaitre les coûts d’usage, il n’existe aujourd’hui qu’une seule étude sérieuse. Celle de la chercheure Sasha Luccioni. Elle est spécialisée en éthique de l'IA et travaille désormais pour la startup d'origine française Hugging Face (qui est LA plateforme open-source consacrée à l'IA).
Sasha Luccioni (Photo personnelle)
Sa dernière étude (2023) (expliquée plus simplement dans cet article de la revue du MIT) nous apporte pas mal d'informations, même si elle n'a pas pu le tester sur les grands modèles privés. Mais ça va te donner une idée
Pour résumer, quand tu génères 1000 textes avec un chatbot d'IA de type ChatGPT, tu consommes 0.042 kWh.
Autre évaluation : quand tu génères 1000 images avec une IA (comme Stable Diffusion), tu consommes 60 fois plus, soit 2,9 kWh.
Mais tu verras tout à l’heure que ça dépend énormément des modèles, de la tâche que tu demandes, du matériel utilisé (les fameuses puces “GPU”) et surtout du lieu où sont faits les calculs...
Pour rendre ça plus visuel, Sasha Luccioni a pris l'exemple d'un smartphone.
Charger un smartphone consomme 0,01 kWh. Donc générer un texte avec ChatGPT ça fait combien en chargement de smartphones ?
Alors ça dépend…
(Image réalisée avec Midjourney 6)
Ce qui est intéressant, c'est que Luccioni a découvert que cette consommation d'électricité dépendait beaucoup de la spécialisation du modèle. Plus le modèle d'IA est spécialisé, plus il est petit et moins il consomme. Elle recommande donc d'éviter les modèles généralistes (comme ChatGPT 4 ou Gemini) pour les tâches spécifiques et de privilégier des modèles plus petits, spécialisés sur une tâche. Ou tout simplement de privilégier les modèles plus petits pour des tâches simples, comme le nouveau modèle Llama3 8b (10 fois plus petit que ChatGPT 3.5 mais aussi puissant) que tu peux essayer gratuitement ici.
Mais revenons à notre smartphone.
Générer 1000 textes avec un petit modèle, estime-t-elle, correspond à charger 16% d’une batterie de smartphone. Mais si le modèle est plus grand on sera plutôt à 4 chargements de smartphones. De l'autre côté, générer 1000 images coûtera entre 290 et 950 charges de smartphone : soit environ un chargement complet d'un smartphone par image, pour le modèle le plus gourmand.
L’impact carbone en fonction de l’utilisation de l’IA : de la classification de texte à la génération d’images… (S.Luccioni)
Et sinon ça fait combien en CO2 ?
Eh bien ça dépend de ton mix énergétique, vois-tu. Alors pas le tien, mais celui de l'Etat où est basé le centre de données qui fait les calculs.
Les USA rassemblent 33% des centres de données. Or, ce ce n’est pas le pays le plus “vert” en terme d’énergie décarbonnée, si on regarde cette carte. Pour limiter l'impact, il faudrait que ces centres soient en France (dont le mix énergétique est essentiellement nucléaire) pour limiter jusqu’à plus de dix fois leurs émissions. Voilà une belle mission pour le président Macron.
Source : electricitymaps (les zones en gris ne sont pas décarbonées, elles ont juste oublié d’envoyer leurs données…)
Les plus gros (ceux de Google et d'Amazon par exemple) sont situés en Oregon, qui est en dessous de la moyenne des émissions mondiales parce qu'il utilise notamment l'énergie hydroélectrique.
Les tests de l'équipe de Luccioni ont donc été réalisés sur un serveur AWS (Amazon Web Services) avec un GPU NVIDIA A100 (l'un des modèles de puces IA les plus récents), en s'assurant que la localisation géographique (Oregon) et donc le facteur d'émissions du mix électrique local (297,6 gCO2/kWh) soient constants.
A titre de comparaison, en France le facteur d’émission est de 20g/kWh.
1 image = 23 mètres en voiture
(Image réalisée avec Midjourney 6)
Donc si on reprend notre image du smartphone, pour mesurer son impact carbone il faut multiplier 0,01kWh (le consommation d’électricité pour le charger) par le taux de CO2 émis par kWh dans la région. Si on charge ton iPhone 14 par exemple dans l’Oregon chez Amazon, eh bien ça génère : 2,9 grammes de CO2.
Donc générer une image dans ces conditions rejette 2,9 grammes de CO2 dans l’atmosphère.
Comme j'avais un peu du mal à visualiser, j'ai demandé à ChatGPT de me calculer ça en kilomètres parcourus par une voiture.
Avec une voiture à essence, charger ton smartphone en Oregon, c'est comme si tu parcourais 23 mètres (en considérant que ta voiture émet 123 grammes de CO2 au kilomètre).
Donc quand tu génères une image avec l'IA, c'est comme si tu parcourais 23 mètres avec ta voiture.
Bon, évidemment tout ça veut tout et rien dire parce qu'à force de calculer des chiffres qui sont eux mêmes variables selon les modèles, la complexité de la tâche, la situation géographique des centres de données, le type de puce utilisé etc, on arrive vite à n'importe quoi...
Mais tu peux estimer, pour faire simple, que si tu génères 1000 images par an, c'est comme si tu faisais entre 7 et 23 km avec une voiture qui pollue, soit entre 1 et 2 kg de carbone rejeté dans l'atmosphère.
Et si tu fais 17500 requêtes ChatGPT par an (soit 50 par jour), ça fait autour de 283 grammes de CO2 rejetés, toujours si l'on se base sur un centre de données en Oregon.
Rappelons que le maximum d'émission par individu recommandé par le GIEC est de 2 tonnes/ an (et que la moyenne par Français est de 7 tonnes).
Attention, hein, ce sont juste des calculs à la volée sur la base des chiffres de cette étude (qui sont trèèèès variables), donc ne les copie colle pas dans une infographie pour la faire circuler sur les réseaux sociaux parce que ça serait faux. C'est juste pour te donner un ordre de grandeur maximal.
Et sinon par rapport à une recherche sur Google c’est plus ?
Bonne question !
Alors, toujours selon cet article de Luccioni, et en grossissant le trait, une requête sur Google coûte consomme environ 3 à 10 fois moins qu'une requête sur ChatGPT. Donc si tu as un truc à demander, commence par chercher sur Google !
Voilà.
Mais ce n'est pas tout.
En fait, la consommation d’électricité ce n'est pas TOUT l'impact environnemental de ChatGPT.
Il y a aussi la consommation d'eau. Celle qui est utilisée pour refroidir les serveurs des centres de données.
Assoiffée comme une IA…
(Image réalisée avec Midjourney 6)
Je ne vais pas te dérouler tous les calculs, mais en gros, tu peux aller voir cette étude qui fait un état des lieux assez complet.
Et qui conclut, je simplifie à mort : 50 requêtes à ChatGPT (version GPT-3) équivaut à une bouteille d’un demi litre d'eau.
Mais tout ça mis ensemble, ce n’est que la petite partie émergée de l’iceberg…
Attention, nous allons rentrer dans le royaume sombre de la technologie !
La face (bien) cachée de l’IA
(Image réalisée avec Midjourney 6)
Pour mesurer l'impact réel sur l'environnement, il faudrait aussi calculer la fabrication du matériel nécessaire pour faire tourner ces IA. Soit les ordinateurs et les puces par exemple. Et là c'est encore plus complexe !
On appelle ça le coût caché de l'IA.
Extraire les métaux rares, synthétiser les composants électroniques, assembler et transporter les produits, tout cela génère plus de CO2 que l'usage de ces appareils.
Une étude de Harvard de 2020, montre que ce n’est pas tant l’usage des appareils électroniques qui émet du CO2 que la fabrication des composants.
Par exemple, entre l'iPhone 3GS de 2009 et l'iPhone 11 de 2019, la part de l'empreinte carbone due à la fabrication est passée de 49% à 86%.
Autre exemple : les data centers de Google et Facebook émettent 20 fois plus de gaz à effet de serre par la fabrication de leurs serveurs que par leur consommation d'électricité.
Dans ce schéma tu peux voir la différence entre la fabrication (Capex) et l’usage (Opex) d’année en année.
Pourquoi ? Parce que l'usage des énergies non émettrices de gaz à effet de serre progresse, ce qui limite l'impact de leur usage. Pour la fabrication, on en est encore loin.
Donc quand tu regardes l'impact écologique de l'IA, il faudrait surtout regarder l'impact de la fabrication des composants et calculer la part utilisée pour faire tourner les IA (soit environ 25% pour ce qui concerne les serveurs, comme on l’a vu)
On peut comparer cela aux efforts pour rendre les voitures plus écologiques : il ne suffit pas de remplacer l'essence par de l'électricité verte, il faut aussi rendre la construction des véhicules plus propre.
Mais comme presque personne n'en parle, on se concentre sur l'impact de l'usage de l’IA parce que c'est celui qui sera le plus facilement réglé (Google a déjà pas mal progressé sur ses centres de données).
Alors qu'il faudrait surtout regarder sous le paillasson du numérique, bien plus concret et beaucoup moins propre parce que plus difficile à contrôler à mesurer.
Voilà pour l’impact négatif.
Ok ok, tu vas me dire, mais dans les médias on dit aussi que l'IA peut avoir aussi un impact positif sur l'environnement, c’est vrai ça ?
Alors oui.
(Image réalisée avec Midjourney 6)
Tout d’abord, pour réduire l'impact en carbone ou en eau (et au delà d’un usage plus raisonné de ces outils) certains rapports recommandent surtout de moderniser tout l'écosystème des centres de données : nouveau matériel (par exemple les puces plus récentes consomment moins d’énergie à calcul égal), meilleur management, meilleur système de refroidissement et bien sur énergies bas-carbone pour alimenter les centres de données .
Et l’IA peut-elle se sauver elle-même ?
Oui, aussi. Enfin en partie.
Dans un article publié en 2023, une équipe de scientifiques de l’Université de Chicago en fait la démonstration. Leur solution : orienter intelligemment les requêtes vers les datacenters alimentés par une électricité bas-carbone pour réduire l'empreinte. Ils ont développé une IA pour cela: “CarbonMin”.
Selon cet article, orienter intelligemment les requêtes permet de réduire les émissions de 35% aujourd'hui et de 56% en 2035. Combiner cela avec des progrès technologiques limitera la hausse des émissions du secteur à 20% en 2035 malgré une charge 55 fois plus élevée.
Ça ne règle pas tout, mais c'est déjà une avancée.
Le rapport Google sur l’éthique de l’IA, cite plusieurs cas d’utilisations de l’IA identifés par le rapport pour freiner le changement climatique, avec quelques exemples : “Des systèmes d'IA qui peuvent être utilisés pour prédire des événements météorologiques extrêmes (Ravuri et al., 2021), réduire la consommation d'énergie des systèmes de refroidissement industriels (Wong et al., 2022), aider à concevoir des enzymes mangeuses de plastique (Kincannon et al., 2022) et accélérer la science de la fusion nucléaire (Degrave et al., 2022)."
À l'inverse, estime ce même rapport, “l'IA pourrait potentiellement augmenter la productivité des industries extractives et intensives en carbone telles que le pétrole et le gaz ou l'élevage de bétail, les aidant à continuer ou même à intensifier leurs activités (Greenpeace, 2020; Kaack et al., 2022)”.
C’est tout ?
Non !
Et voici la question ultime !
L'IA produit des gaz à effet de serre, ok. Mais l’humain ? L’IA permet-elle de réduire les émissions en remplaçant certaines tâches humaines ? L’exercice semble complexe…
Mais une équipe de chercheurs s'y est attelé. Leurs résultats sont étonnants.
La méthode a le mérite d'être simple : comparer le temps passé pour écrire ou produire une image (quelques secondes pour l’IA, quelques heures pour l’humain) et le coût carbone moyen d’un humain et de son ordinateur sur cette durée.
Leurs conclusions ?
"Nous constatons qu'une IA qui écrit une page de texte émet 130 à 1500 fois moins de CO2 qu'un humain. De même, une IA qui crée une image émet 310 à 2900 fois moins. (…) À l'heure actuelle, l'utilisation de l'IA offre la possibilité d'effectuer plusieurs activités majeures à des niveaux d'émissions bien inférieurs à ceux des humains."
A gauche (2 premiers batons) : écrire un texte avec l’IA. A droite : sans l’IA…
Cependant, les auteurs ne mentionnent que brièvement le risque d'effet rebond, c'est-à-dire que les gains d'efficacité permis par l'IA pourraient en pratique être annulés, voire inversés, par une forte hausse de la production de contenus (vu que ça devient plus facile...). Mais l'étude ne fournit pas d'estimation chiffrée de cet éventuel effet rebond.
Ah mais pourquoi le monde est-il si compliquééééé ?
L’OUTIL GRATUIT
Comment accéder au nouveau chatbot de Google capable d’analyser 1h de vidéo?
Tu connais Google Gemini (anciennement Bard) ? C’est le deuxième outil d’IA le plus utilisé par les Français derrière ChatGPT.
Ok, mais tu connais Google AI Studio ? Aaah, on s’y perd.
Alors Google AI Studio c’est une nouvelle plateforme, qui utilise un tout nouveau modèle d’outil d’IA, Gemini 1.5, beaucoup plus puissant que le Gemini que tu connais.
J’ai donc pu l’essayer et vérifier si cette nouvelle IA gratuite était meilleure que la version payante de ChatGPT.
Alors la réponse est non. Elle n’est pas “mieux”, MAIS…
… ce n’est pas son seul argument.
Gemini se distingue surtout par sa capacité à traiter d’énormes documents texte, vidéo et son.
Par exemple, elle peut aussi analyser les images d’une vidéo, pas seulement le transcript textuel de la vidéo. Pour 1 heure de vidéo. Elle peut aussi le faire sur plusieurs heures de son.
Et elle est capable de traiter d’un seul coup environ 700.000 mots. Soit un peu plus de 2000 pages (contre 300 pages pour ChatGPT 4). Cela devient intéressant si tu lui donnes accès à plusieurs fichiers (en lui donnant accès au dossier où tu as mis les fichiers).
Cette capacité à traiter d’énormes quantités de données fait de Gemini 1.5 un outil d’IA unique en son genre. Avec le Google AI Studio, tu peux faire pas mal de réglages (comme le degré de censure, ou d’aléatoire dans la réponse…). Attention cependant, s’il parvient souvent à trouver la petite info dans une masse de données (par exemple une citation précise), il invente encore parfois… et il ne va pas sur Internet.
L’autre problème c’est que… il est disponible dans 180 pays, mais pas en France… donc pour y accéder, voici une petite astuce : utilise un VPN (un logiciel qui fais croire à Google que tu es à l’étranger, comme “Nord VPN”) ou plus simple, télécharge le navigateur Opera, qui embarque un VPN gratuit.
PROMPTOLOGIE
Comment récupérer une citation exacte dans un document avec ChatGPT ?
“Le guide du prompt” d’OpenAI est un super document pour apprendre les bases du prompt engineering, c’est à dire l’art de donner les bonnes instructions aux IA génératives comme ChatGPT. Comme ce sont eux qui ont créé ChatGPT, leurs conseils ont beaucoup de valeur.
Il est en anglais, mais tu peux le faire traduire par ChatGPT ou Deepl.
Dans ce guide, je suis tombé sur une technique très intéressante.
ChatGPT et ses amis sont très bons pour analyser des documents, mais pas forcément pour retrouver une information précise même dans un long texte. Comme tu le sais sans doute, il leur arrive parfois d’inventer ou de reformuler ce qu’ils ont lu, sans que ça soit la phrase exacte écrite dans le document que tu leur as fourni.
Voici donc un prompt pour éviter ces deux écueils. Envoie lui le document en cliquant sur le petit trombonne (si tu as la version payante de ChatGPT) ou copie-colle le document entre deux balises : <document> … </document>. Puis entre l’instruction suivante :
Vous disposez d'un <document>. Votre tâche consiste à répondre à la question qui vous sera posée en utilisant uniquement le document fourni et à citer le(s) passage(s) du document utilisé(s) pour répondre à la question.
Si le document ne contient pas les informations nécessaires pour répondre à la question, écrivez simplement : « Informations insuffisantes ».
Si une réponse à la question est fournie, elle doit être annotée d'une citation.
Utilisez le format suivant pour citer les passages pertinents ({« citation » : ...}).
LE SAVAIS-TU ?
Apprendre à utiliser ChatGPT te servira pour toutes les autres IA
La déferlante des nouveaux modèles d’IA générative concurrents de ChatGPT (Gemini, Claude 3, Llama 3, Mistral Large…) a de quoi faire tourner la tête.
Mais la bonne nouvelle c’est que si tous ces modèles se rejoignent désormais en terme de puissance, ils se rejoignent aussi sur les méthodes à utiliser pour en tirer le meilleur.
On appelle ça le “prompt engineering”.
J’ai donc lancé avec Thomas Mahier trois formations au prompt engineering, toutes mises à jour pour 2024. Tu pourras apprendre à maitriser ChatGPT et ses concurrents. Mais aussi réaliser des images avec Dall-E 3 et Midjourney. Elles ont été conçues pour te permettre, même si tu débutes, d’obtenir des résultats vraiment utiles. C’est aussi une expérience d’apprentissage critique très simulante qui te donne accès à un groupe privé d’entraide et à un guide de prompts régulièrement mis à jour.
👉️ Pour découvrir ces formations avec une réduction spéciale, et intégrer la communauté, tu peux aller ici. Il y a aussi des formations pour les entreprises.
On construit cette lettre ensemble !
Les retours à ma dernière lettre sur les IA génératives d’images (et comment j’ai réussi à m’en emparer) ont été très encourageants. Ça m’a fait plaisir parce que j’étais un peu flippé à l’idée de l’envoyer !
🟩🟩🟩🟩🟩🟩 Top ! (92%)
⬜️⬜️⬜️⬜️⬜️⬜️ Bien mais... (6%)
⬜️⬜️⬜️⬜️⬜️⬜️ Bof... (2%)
Parmi les commentaires, Jean-Paul regrette que je n’ai pas évoqué la question des droits d’auteur :
“Quand tu génères une image ""dans le style de"", qui est vraiment le créateur ? Toi? L'IA ? Ou la personne dont l'IA imite le style sur tes instructions, en récupérant (probablement) des oeuvres de cette personne (et de quelques autres) pour les intégrer à ton image ?”
Alors c’est un sujet complexe et encore en zone grise que j’aborderai dans une autre lettre. Mais pour répondre à la question de Jean-Paul, oui un artiste (qu’il utilise l’IA ou pas) peut s’inspirer d’un style sans forcément plagier… Mais peut-on plagier à l’insu de son plein gré comme disait l’autre ? Aaaaah….
Voilà ! A toi de voter !
Comment as-tu trouvé cette lettre ? Vote ici et laisse tes commentaires ! Dis moi aussi ce que tu aimerais voir en plus ou en moins.
Comment as-tu trouvé cette édition ?Et laisse un commentaire pour nous aider à améliorer cette lettre ! |
Merci de nous avoir consacré un peu de ton temps. Je te souhaite un joli mois de mai (je sais ce n’est pas encore le mois de mai, mais j’aime beaucoup ce mois, donc je suis impatient !). Et n’oublie pas de partager cette lettre si elle t’a plu !
🌱 Benoît, Thomas et FlintGPT.
Comment réduire l’impact de l’usage de l’IA ?