L'impact environnemental du volume de donnée, une arnaque intellectuelle

J’ai trouvé un billet de blog intéressant questionnant l’intérêt et le risque que l’on encours à ramener l’impact du numérique à une histoire de gigaoctet. Je trouve la réflexion intéressante, car travaillant dans le numérique et étant justement en train de faire l’analyse du cycle de vie du projet sur lequel je travaille, les calculs en moyennant sur le « Go/GB » ou bien « par heure » cachent une complexité de l’action qui à mon avis amènera à la prise de mauvaises décisions.

Personnellement je suis convaincu qu’il faut séparer l’accès et l’usage des services, car c’est souvent dans le numérique l’accès au service qui a un fort impact, plus que son utilisation.

5 J'aime

Là où je conçois que le calcul de gCO2/Go n’a pas forcément de sens, car la consommation énergétique du mouvement des données est insignifiant, sur le fond je ne suis pas forcément d’accord avec l’article. Effectivement, réduire aujourd’hui notre consommation n’aboutirait sans doute à aucune amélioration, mais limiter celle-ci sur le long terme permettrait de diminuer considérablement le renouvellement ou l’amélioration des terminaux.

Si lors des 10 prochaines années la consommation reste la même, alors des augmentations de vitesse, de volume de stockage, de dimensions des infrastructures etc ne seraient que peu nécessaires, apportant un gain réel. Et cela permettrait de diminuer l’effet rebond, si un datacenter peut stocker plus de données sur la même surface, alors sa surface diminuera au lieu de stocker plus de données. (en tous cas dans cette utopie que j’imagine)

1 J'aime

Oui clairement, si on peut s’en passer, autant le faire, mais il ne faudrait pas optimiser les mauvais indicateurs, surtout quand ceux-ci sont très imprécis. Pour moi, cela a peu de sens d’inclure le CO2 émit pour l’accès au service dans son usage, car on peut penser qu’utiliser un autre moyen (par exemple acheter un disque dur supplémentaire ou une capacité mémoire plus importante au lieu de stocker dans le cloud) est plus économe, alors que ce n’est pas forcément le cas (et même je dirais plutôt l’inverse pour des questions d’optimisations à grande échelle).

1 J'aime

Que pensez-vous du rapport du Shift à ce sujet ?

Le développement rapide du numérique génère une augmentation forte de son empreinte énergétique directe. Cette empreinte inclut l’énergie de fabrication et d’utilisation des équipements (serveurs, réseaux, terminaux). Elle est en progression rapide, de 9 % par an. La consommation d’énergie directe occasionnée par un euro investi dans le numérique a augmenté de 37 % depuis 2010. L’intensité énergétique de l’industrie numérique augmente de 4 % par an : une hausse à contre-courant de l’évolution de l’intensité énergétique du PIB mondial, laquelle décroît actuellement de 1,8 % chaque année. L’explosion des usages vidéo (Skype, streaming, etc.) et la multiplication des périphériques numériques fréquemment renouvelés sont les principaux facteurs de cette inflation énergétique.

Je le trouve un peu dogmatique. Ils utilisent des moyennes et des relations linéaires pour décrire une industrie bien plus complexe qu’un réseau électrique. Et sur ce dernier de telles approximations leur auraient fait dresser leurs poils.

Après je comprends le discours, il faut réduire notre empreinte partout, et le numérique doit énormément progresser là dessus. Cependant, il faut utiliser les bons indicateurs car sinon on ne réussira pas à parler à l’industrie et on va juste avoir une levée de bouclier ou des solutions politiques contre-productives.

2 J'aime

Bonjour, Il n’y a pas 36 solutions pour que tout le monde sorte gagnant : si c’est vraiment nécessaire (je ne sais pas si c’est le cas), il faut que des motivés du secteur prennent le rapport du Shift à bras le corps et l’améliore, en impliquant avant sa sortie des experts du secteur, c’est comme ça qu’on gagnera tous en crédibilité. C’est ce qu’il s’est passé sur le rapport sur l’aviation qui est maintenant pris très au sérieux par le secteur.

2 J'aime

Encore faudrait il pouvoir… Chaque proposition d’aide et de retravail du rapport avec le shit est juste repoussé, car le changement de méthode n’est pas accepté. C’est assez usant et dénote pour moi un vrai problème en interne de systématiquement rejeter toute les contributions des acteurs du secteur de façon hyper antagonisante.

Bonjour à tous,

J’essai aussi de mettre en place dans mon activité professionnelle (projets d’intelligence artificielle et d’internet des objets) une méthode de calcul de l’impact environnemental du numérique. Je commence tout juste et je pense me concentrer sur la consommation énergétique. La conversion en eqCO2 est trop dépendant du mix énergétique qui peut évoluer rapidement.
@Paul, quels indicateurs parviens-tu à calculer pour quel périmètre ?

Par ailleurs, avec quelques uns, nous avons initié un groupe de travail sur le numérique et un espace de partage sur Microsoft Teams. Pour l’instant, nous rassemblons de la bibliographie ; ce genre de sujet pourrait en intéresser d’autres.

@waxzce, j’ai cru comprendre que les shifters sont indépendants du Shift. Donc au moins pour une phase de recherche et de documentation, un groupe de travail pourrait creuser une nouvelle approche sereinement non ?

1 J'aime

En fait, justement il y a beaucoup de solutions! Le problème c’est la Loi de Brandolini — Wikipédia . Sans comparer le rapport du Shift à de l’intox, loin de là, le temps que l’on doit consacrer à la recherche de littérature, et à l’argumentation est un temps qu’on ne passe pas à mettre en place des solutions concrètes. Du coup, j’ai entendu plusieurs acteurs du secteur vouloir faire un autre rapport, sans même prendre le temps d’argumenter avec le Shift.

Une partie de la population a trouvé dans le numérique l’incarnation de la croissance verte. Depuis la publication du rapport sur le numérique, le Shift a énormément gagné en popularité, massivement relayé par les médias. Cela fait du bien de taper sur ces glandeurs qui regardent Netfllix. Cependant, si cela eu le mérite de poser le débat, il faut maintenant prendre du recul et se poser des questions plus intéressantes comme: comment on réparti notre temps de loisir? comment on utilise le numérique pour décarbonner les entreprises? quel indicateurs doit-on utiliser pour optimiser le système? est-ce que ça fait du sens de tout englober dans un seul secteur « numérique »?

Pour le Scope 3b (downstream), je sépare ce qu’il se passe avant l’utilisation (par unité) et l’utilisation même du produit (par heure) et pour la partie réseau j’utilise l’estimation du Shift via le 1B model. Le reste je le calcul à la main avec la base carbone un peu vieillissante de l’Ademe (dont le mix électrique s’est arrêté à celui de l’IEA de 2011). A la fin j’ai une différence accès/usage par pays, par type d’accès et par type d’usages, et je reste en gCO2e (ou en intensité carbone gCO2e/€). L’idée étant d’avoir à la fin une matrice de décisions globale et par pays pour tout ceux qui travaillent sur la chaine de valeur. EDIT: je veux bien rejoindre le groupe, mais le lien ne fonctionne pas chez moi!

Bonjour,

Pour préciser et me présenter un peu, je suis l’auteur du billet cité en haut et depuis presque 30 ans je bosse dans l’informatique, les réseaux et un peu l’électronique (+10 ans avant ça dès mes années de collège à bricoler de la micro à ses débuts, puis du Minitel, puis faire des études d’informatique et d’électricité/électronique).

Pour compléter un peu ce que dit @waxzce (on se connaît et s’apprécie), j’ai vu des personnes du Shift à la rentrée 2019 pour parler de leur rapport 2019 qui avait étonné pas mal de monde dans la communauté IT par ses chiffres, parce que je pensais utile de comprendre la démarche du Shift et voir ce qu’il était possible de faire pour apporter d’autres pierres à l’édifice.

Ensuite en janvier 2020 je suis allé avec un ami à la grande réunion du Shift (il se trouve que j’habite pas très loin, j’ai donc sauté sur l’occasion). Le Shift est très ouvert aux contributions externes et l’accueil a été très sympathique, mais force est de reconnaître qu’on se sent bien seul, et même à 2, quand on aimerait apporter une contribution différente à ~300 personnes – ou même 30 – qui semblent avoir déjà établi un consensus entre elles. Et j’ai également rencontré ce problème dans d’autres contextes similaires de réflexion, problème exacerbé par le covid (c’est encore plus difficile en visio).

Bref, tout cela demande du temps, dont je dispose peu, donc après avoir exprimé pas mal de réserves sur Twitter, j’ai décidé de couper au plus court en collaborant avec des personnes qui partagent mes points de vue sur différents projets « à notre sauce » pour apporter une parole différente, en écrivant mes propres articles, et en essayant d’assembler mes propres données. C’est un bon ratio effort/résultat, à mon sens ; ça peut provoquer des frictions, certes, par l’apport de contradiction non souhaitée ou qui sort des sentiers déjà bien normalisés « consultant CO2 », mais je pense que c’est en partie inévitable.

Incidemment, je vois beaucoup de monde reprenant des études tierces, mais beaucoup d’éléments concrets sont réplicables et donc vérifiables par tout un chacun chez lui, à faible coût, et avec des connaissances niveau lycée.

2 J'aime

Bonsoir - Les principaux enseignement du rapports et des études ultérieures est de mettre en avant l’importance du sac à dos écologique lors de la fabrication (et du renouvellement) des terminaux connectés (x40), la croissance fabuleuse des résolutions des flux video, avec la montée de niveau du SD, vers HD, UHD. Et lorsque ces consommations sont destinées à des périphériques nomades, avec un petit écran, le gachis d’octets est considérable, du fait de l’absence de négociation entre les dispositifs. A cet égard, l’éclairage de l’étude Obringer de 2020 ( sur l’impact du Covid dans le secteur numérique qui met en avant un facteur x7 de croissance des flux entre SD et HD, et des streaming video montant à 2 Go/H (Attention aux conversions Gb/GB).
Cette étude met également en avant une empreinte CO2Eq/Go de 28 (FR) à 63g suivant les pays.
Nous serons en tout cas tous d’accord pour constater la carence des outils de metrologie, d’un secteur virtuel qui se découvre malgré tout bien ancré dans les limites de notre planete.
Consultants, DSI, à vos calculettes !
Je vous renvois aussi à l’excellent mémoire de notre camarade de Montreal ici, qui developpe par ailleurs les limites de renouvellement de certains métaux rares.

1 J'aime

Bonsoir,

Cette affirmation s’appuie sur 2 éléments qui me semblent inexacts :

  • il n’y aurait pas réduction de résolution : si vous testez par exemple une récupération de vidéo Netflix sur mobile, vous constaterez qu’un épisode de 20 mn occupe environ 80 Mo, soit 240 Mo/h. Soit un débit d’environ 500 Kbps, bien loin des débits HD ou 4k. Si vous avez un exemple réel contraire, je suis preneur ; TL;DR : arrêtons de prendre les gens qui conçoivent les applications vidéo pour des imbéciles, ils ont tout intérêt à limiter les ressources utilisées : cela donne des applications qui fonctionnent bien mieux donc une meilleure expérience utilisateur, ils seraient bien stupides de s’en priver ;
  • gâchis d’octet, so what? Comme expliqué par ailleurs, le CO2 n’est pas proportionnel au volume transmis, c’est également une idée fausse à combattre.

Ces études sont fondées systématiquement sur des ACV incluant l’ensemble de l’infrastructure fixe. Il ne s’agit donc pas du coût incrémental CO2/Go, contrairement à ce qu’on laisse entendre. Le coût incrémental est beaucoup plus faible. Le coût global en CO2/Go… baisse quand on augmente l’usage (numérateur CO2 quasi fixe, dénominateur en Go qui augmente). Réduire l’usage produit l’effet inverse en réduisant le dénominateur.

Là dessus on sera totalement d’accord, je n’en demande pas moins. Et que les discours et mesures en aval s’appuient sur des chiffres bien estimés et au sens bien compris :slight_smile:

N’oublions pas enfin la progression régulière des algorithmes de compression : ainsi un flux TNT HD aujourd’hui (qui est loin d’être le mieux que l’on puisse faire) n’occupe pas plus de débit qu’un flux DVD SD d’autrefois.

1 J'aime

Pour avoir passé 30 ans chez un GAFA, je sais que la 1ere préoccupation est « One Size Fits All », qui conduit par exemple à déposer l’empreinte de centaines de modules d’un ERP même si le client n’en achete qu’un. De « blinder » tout le chargement des librairies applicatives même lorsque l’utilisation reste à couverture fonctionnelle mini. La croissance des surfaces mémoire à encouragé des pratiques de Memory Management expensives, avec des temps de parcours couteux en CPU, effet rebond de mémoires en adressage 64bit enormes. L’accès disque imposait l’optimisation d’accès. Par ailleurs, s’agissant du développement, l’optimisation sous contrainte demande souvent du temps largement négligé au profit de la couverture fonctionnelle… Jusqu’à maintenant en tout cas. Toutes ces années passées en optimisation d’ environnements de production m’ont montré combien la couverture fonctionnelle prime largement devant la consommation des ressources. Ce n’était que lorsqu’il n’y avait plus de place pour ajouter de la mémoire ou des cartes CPU qu’on sollicitait une étude d’optimisation. Ce qui n’empeche pas d’avoir quelques rares développeurs consciencieux, et en mesure d’exiger l’espace-temps nécessaire à un plein exercice de leur « art ».
Quelle empreinte mémoire, quelle longueur de code-path pour les programmes « Hello World » de dernière génération ?

1 J'aime

Par ailleurs, je reprends l’étude 2020 passée par un comité de lecture qui présente la différence d’impact suivante sur la lecture HD/SD


Cette etude précise également :
image

Et l’étude d’ajouter que le passage en mode confinement a conduit à une surconsommation annualisée mondiale de 43 TWh d’électricité sur les datacenters/équipements réseaux. J’ai demandé à l’auteur la communication de ses « supplementary material » ayant fondé l’article.

1 J'aime

Que vous dire… la réalité c’est que le débit vidéo est adapté à la taille du terminal par les services vidéo, c’est facilement vérifiable, et ils y ont tout intérêt à tous points de vue. Personne n’envoie de vidéo 4K sur un mobile à écran 5 pouces (ou peut-être des rigolos, mais pas de service majeur).

Sur votre infographie, il s’agit tout simplement de règles de 3 CO2/eau/land appliquées sur le seul élément objectivable facilement = le débit de données. Elles ne prouvent strictement rien sur l’impact CO2 réel puisque le principe même utilisé ici de la règle de 3 (proportionnalité totale) ayant pour clé le volume est un choix de répartition arbitraire.

Sinon, on est évidemment d’accord sur le fait que la HD produit plus de volume que la SD – à codec équivalent --, et une visio avec vidéo produit plus de volume que sans vidéo. Qu’elle produise dans la même proportion plus de CO2 en revanche est faux – elle en produit possiblement un peu plus très marginalement, mais certainement pas dans le même facteur en raison des coûts fixes incompressibles --, et une multiplication n’est pas un élément suffisant de preuve en la matière.

1 J'aime

Et on pratique toujours ainsi, au moins en terme de mémoire, pour une bonne raison : l’ordinateur utilisé à 100 % ne consomme pas plus de ressources que s’il est utilisé à 50 %. (modulo questions de temps de calcul etc).

Alors pour avoir commencé sur des machines de 16 Ko, je suis conscient à la fois de la croissance de ressources mémoire depuis, et de ce que l’on a gagné en marge de manoeuvre dans la même période.

Au temps des micros, un « hello, world! » ne prenait pas plus de mémoire que son écriture en Basic.

Sur un Basic Microsoft de l’époque 8 bits, vu le système d’encodage, ça devait tourner autour de 19 octets si ma mémoire est bonne.

Aujourd’hui, compilé en C sur mon système, j’ai 14176 octets (ce qui est très raisonnable). Facteur 746.

Le facteur de croissance parallèlement en mémoire RAM est de 1 million (de 16 Ko à 16 Go).

La consommation de la machine a, il est vrai, un peu augmenté, mais pas tant que ça (mon serveur local consomme 45 W pour 32 Go).

Donc je crois qu’on est en train de s’agiter contre des moulins à vent.

La croissance de performances des machines s’est également considérablement ralentie depuis 10 ans, ce qui oblige justement à optimiser mieux les logiciels.

Entendons-nous bien, je ne dis pas qu’il ne faut pas améliorer les logiciels, ni qu’il n’y a pas de gaspillage de ressources informatiques. Il y en a à l’évidence. Je dis que l’impact en amélioration environnementale à en espérer est marginal.

Chic, je suis d’un avis contraire et J’ai l’impression que nous aurons un débat passionnant sur ce sujet.

  • Les framework de développement de la couche Hello World sont devenus enormes et déploient un microcode très important pour la même fonctionnalité.
  • Le volumes d’échanges à la constitution de pages web, actions de retraitement, requetes d’autofill, encryptions SSL inutiles, trackers marketing démultiplient les flux d’un ordre de grandeur, ce n’est pas marginal.

Enfin, et nous nous retrouverons peut être, l’essentiel du caractère insoutenable du numérique relève de cette course aux renouvellement des matériels (1.2 Milliard de tel portable en 2020), à partir de l’obsolescence technique, psychologique, et des raccourcis de trop d’éditeurs, ainsi que la démultiplication d’usages de Video HD+, en pleine acceleration, pour un intérêt sociétal questionnable surtout lorsqu’il encourage aux changements d’équipement, à l’augmentation des forfaits, et in-finé au passage à la 5G, à la télé UHD comme on passe au SUV, en maximisant son confort de vie personnel.

Enfin, l’effet rebond, qu’il porte sur des sur-disponibilités réseau (5G), CPU (Cloud) est comparable à la construction d’autoroutes, dont on a tout interêt à développer l’usage, une fois qu’elles sont construites. Donc l’argument de cout fixe/cout variable se vérifie ici aussi, ce n’est pas l’augmentation des besoins qui conduit à l’augmentation des capacités, mais le contraire…

Au plaisir d’en débattre, peut être à la suite d’une session de formation qui ne va pas tarder sur le rapport Sobriété numérique.

1 J'aime

:slight_smile:

Il est vrai que HTTP s’est un peu englué depuis sa naissance, mais pas par des facteurs énormes (là encore bien moindres que ceux de puissance des machines).

Le chiffrement SSL est un gain considérable pour la vie privée, quasiment à isoressource désormais (quelques octets, littéralement, échangés en plus sur le réseau ; chiffrement réalisé par des fonctions spécialisées dans les processeurs donc à coût électronique minimal).

Quant aux mécanismes type Ajax, ils nous ont apporté beaucoup (à commencer par la cartographie en ligne).

Long débat… mon ordi de bureau date de 2010 et a des perfs datées mais pas ridicules par rapport à ce qu’on peut trouver aujourd’hui, la motivation de le changer est faible (j’admets qu’en 4K il a du mal, c’est tout). Il ne tourne pas sous Windows, ça aide peut-être.

Entre 2000 et 2010 ou les 10 ans encore précédents, l’évolution était fort différente. Depuis, même Windows (gros gouffre à ressources) a cessé d’en demander toujours plus.

Mais sinon oui tout le monde n’est pas conscient qu’il ne sert pas forcément à grand chose de remplacer un ordi de bureau parce que Windows y est devenu lent, et il y a des progrès à faire pour ralentir les changements de matériel, surtout mobile.

De ma petite expérience (~10ans) de développeur d’applications (progiciels), je ne suis pas du même avis. Je n’ai pu que constater que, la plupart du temps, la question de l’optimisation est prise à l’envers : on surdimensionne les serveurs pour pouvoir répondre aux utilisateurs en un temps correcte parce que la partie logiciel est -très- sous-optimisée. En gros, pour ne pas à avoir à réécrire une partie du code qui pourrait être 10à100x plus efficace (c’est l’ordre de grandeur de ce que j’ai pu mesurer), on installe plus de serveurs plus puissants (multiplication de la quantité de RAM, du nombre de CPU, ou réplication de serveurs de BDD…).

Donc, non, quand on voit qu’avec un peu de travail d’optimisation logiciel, on peut facilement obtenir 10x moins de volume échangé, un logiciel client plus léger et plus réactif, une division de la charge sur les serveurs par 2 ou 3 (ou plus)… l’amélioration de l’impact environnemental n’est pas marginal.

2 J'aime

Oui Guillaume, cela a représenté de mon coté 30 années d’expérience professionnelles, intervenir sur l’applicatif quand il n’est plus possible d’ajouter mémoire et cpu dans le fond de panier.
Et des ordres de grandeurs de gains sont réellement accessibles sur des traitements qui n’ont été pensé que « fonctionnalité » et pas « performance ». Le grand classique, les boucles de traitements unitaires au lieu de traitements ensemblistes.
Et là, la formation dans les écoles informatique a du chemin à faire !