Formation à GPT3 et ChatGPT
Musclez le contenu + SEO
Tutoriels GPT - ChatGPT - Open AI

ChatGPT, Bard, Sidney: empreinte écologique excessive ou pas ?

Les chatbots comme ChatGPT sont-ils vraiment nuisibles à l’environnement. Voici quelques calculs qui démontent ces affirmations un peu rapides.

Les lecteurs de 24pm Academy, savent que je suis plus que concerné par l’écologie et que j’agis très concrètement pour minimiser mon empreinte écolo (eau, CO2, matières premières, pollution…) : mon vélo non électrique a trente-cinq ans, demain j’offrirais des fleurs que j’ai fabriquées à partir de bouteilles en plastique à ma douce, j’ai fait pousser 20000 chênes dans le Perche pour compenser mes émissions de cO2 et je suis en train de creuse à la pelle une petite rivière et 4 marres pour neutraliser mon empreinte « eau ». L’écologie est, donc, un sujet qui me concerne vraiment.

Donc, bien que je crois que les technologies comme GPT vont révolutionner les choses, contrairement au Metaverse, leur impact écolo m’intéresse.

Mais, ce qu’on en dit me parait un peu léger.

Voici, en synthèse, ce que l’on entend.

  1. Une requête à GPT/ChatGPT mobilise énormément de puissance de calcul et, donc, d’énergie, souvent carbonnée. On parle d’un coût de quelques cents par conversation avec ChatGPT.
  2. En comparaison, une requête à Google couterait beaucoup moins cher en énergie et en dollars.
  3. Donc, ChatGPT est moins écolo qu’une requête dans Google.

Cela s’entend.

Mais ce que l’on peut également entendre, c’est qu’une recherche via Google ne s’arrête pas à Google car Google ne donne pas la réponse dans la majorité des cas. La réponse se trouve, souvent, dans les 10 pages choisies par Google.

  • Il faut, donc, intégrer, dans l’empreinte écologiques des pages consultées suite à la recherche Google.
  • Souvent, on va consulter un minimum de trois pages suite à une recherche « informationnelle » ou « transactionnelle ». Ces pages « pèsent » lourd : on parle de 2Mo par page (HTML + javascripts + CSS + images + Video).
  • Il y a, par ailleurs, au moins un appel à une base de données.
  • En outre, des serveurs qui tournent en permanence, même la nuit, pour que le site soit accessible en permanence.
  • Notre navigateur consomme aussi de l’énergie, en particulier, s’il doit exécuter des javascripts un peu lourds sur ces pages.
  • Je ne parle même pas des contenus des pages qui se préchargent, afin qu’ils s’affichent vite si vous les demandez.
  • Mais ce n’est pas tout : une connexion à une page de votre site génère, en général, un minimum de 5 connexions à d’autres serveurs : Google Analytics, Matomo, Google Ads, AB Tasty, Facebook Ads, Google Tag Manager, Mailjet, Optinmonster….
  • Sur un site comme lemonde . fr, mon détecteur de mouchard Ghostery m’indique que ce sont entre 50 et 100 mouchards qui s’active sous 3 secondes si je ne bloque pas les cookies tiers : tracking classique des sites normaux + tracking publicitaire via des third party data providers, optimisation algorithmique de la vente d’espace publicitaire (Headerbidding, connexion à des ad Adexchanges qui elles-même transmettront leurs information aux serveurs DMP de centaines d’annonceurs).

Bref, une recherche Google, Bing, DuckDuckgo ou Qwant, c’est souvent :

  • 2 ou 3 pages de recherches affichées + 3 pages minimum consultées X [2Mo de données chargées + 10 javascript + 5 CSS + 10 appels à des serveurs de tracking]

=

  • Un total minimum minimum de 50 requêtes à des bases de données + 6 Mo de données téléchargées + des navigateurs bien sollicités à interpréter javascripts, CSS et à charger images et vidéos.

Et beaucoup plus si vous connectez sur un site media ou un portail de type Amazon.

Enfin, certaines études indiquent que 50% du trafic du web est le fait de « bots », pas d’humains. Cela alourdit encore l’empreinte écolo des pages consultées.

En face de cela, lors d’une requête sur un Chatbot, de type GPT, on a un serveur qui est très sollicité à 4 ou 5 reprises correspondant aux 4 ou 5 questions qu’on pose à GPT durant la conversation mais après, le navigateur de l'utilisateur est peu sollicité car il ne reçoit que quelques dizaines de ko de textes. Une question sur ChatGPT consommerait 4 à 5 fois plus d'énergie qu'une requpete par mot-clé sur Google, mais ne génèrerait pas toute la consommation d'énergie décrite dans le début de l'article, liée à la consultation des pages web.

Ceci étant, il faut petre prudent car nous ne disposons que d'estimation à la fois sur la consommation d'énergie, à la fois sur un cycle de recherche sur ChatGPT et sur un cycle de recherche complet Google.

Mais vous êtes averti : c’est comme pour la voiture électrique, pour comparer l’empreinte de deux technologies, il faut considérer l’ensemble du cycle. De même façon que les voitures électriques réduisent les émissions dans les villes pour les reporter sur les sites de fabrication (la construction d'une voiture électrique étant beaucoup plus émettrice de CO2 que celle d'une voiture à moteur thermique), mais qu'au final, leurs bilans carbone n'est pas bon, de la même façon, il faut prendre du recul pour estimer la nocivité ou le gain liée à de nouvelles technlogie.

D’ailleurs, il faudrait précise que cet article a délibérément omis de prendre en compte ce qui se passe avant la recherche : le crawling du web et l’indexation des données par les moteurs de recherche classiques, d’une part, et le crawling du web et le processus d’apprentissage des Chatbots, d’autre part. Une étude affirme qu’OpenAI aurait émis 552 T de CO2 pour entraîner GPT3, la version actuelle de son modèle.

Les émissions de CO2 liée à cette phase d'entrainement représente les émissions annuelles de 70 français ou de 30 américains, ce qui est très faible: cela correspond à l'empreinte de n'importe quelle agence de conseil qui emploie quelques dizaines de consultants.

Note pour les experts: pour réaliser ces calculs, j’ai majoré les estimations officielles des émissions de CO2 des français (4,5T / français / an) et des américains (14,5T / américain / an) car elles excluent les émissions déportées dans d’autres pays où sont fabriqués les objets que nous consommons.

En tout cas, il ressort de tout cela que, si l'on examine les chiffres dans le détail:

  • Les émissions liées à l'apprentissage de GPT3 (ou des concurrents) consomme moins d'énergie et émet moins de CO2 que ce que l'on imagine
  • L'exploitation commerciale d'un modèle comme GPT3 n'a pas une empreinte écologique plus importante qu'une recherche dans Google si l'on considère l'ensemble du cycle.

En revanche, le vrai sujet que GPT soit sollicité lors de chaque recherche classique dans Bing (partenaire d'OpenAI/GPT) ou que Bard (le chatbot de Google) soit sollicité dans chaque recherche classique de Google car ce serait la double peine: une consommation d'énergie plus importante lors de la génération de la réponse elle-même (appel à la base classique de Google ou Bing + génération d'une réponse Bard ou ChatGPT + consultation de pages web).

Il va, donc, falloir observer la façon dont Microsoft et Google intègre ces technologies dans leur process de recherche et déterminer si l'efficience de ces systèmes progresse suffisamment rapidement pour compenser l'explosion de leurs usages.

Contenus liés

Search