Il y a quelques semaines, je vous parlais du livre-enquête L’enfer numérique de Guillaume Pitron que j’ai choisi d’investiguer pour commencer l’année sur une note éco-responsable. Le bilan que tire l’auteur de l’impact du numérique est forcément inquiétant : en effet, à l’impact que tout secteur d’activité a sur la planète, s’ajoute ici l’impression qu’en consommant des produits numériques – vidéos, pages web, musique, photo – on ne consomme que de l’immatériel, sans effet réel sur les ressources naturelles. C’est justement cette impression qui nous pousse à en vouloir toujours plus, plus vite, de meilleure qualité, sans avoir conscience du fait que, pour satisfaire nos attentes, une gigantesque infrastructure bien matérielle composée d’innombrables datacenters, câbles et puces électroniques, s’active en coulisses.

Pour mieux comprendre cela, j’ai choisi de me concentrer sur trois exemples abordés dans le livre.

Les données au cœur des préoccupations

On entend souvent que les données sont le nouvel or des entreprises. En effet, ce qui fait gagner de l’argent aux entreprises aujourd’hui n’est plus la vente d’ordinateurs ou de logiciels, mais la commercialisation d’informations ; pour en collecter toujours plus, les entreprises attirent les utilisateurs en proposant des services dits « gratuits », comme l’a fait Facebook, où chaque utilisateur donne volontairement des informations sur lui-même. La ligne de démarcation actuelle est de donner accès ou non à ses données, pour bénéficier de services gratuits sans avoir l’impression qu’il s’agit bel et bien d’une transaction.

Or, très peu d’utilisateurs en sont conscients – même si les mentalités évoluent, notamment depuis la mise en place du RGPD – et ne se préoccupent pas vraiment de la façon dont marche le web tant que les technologies fonctionnent toujours plus vite. Pourtant, cette inflation des attentes représente un poids non négligeable.

Ce que révèle le MIPS des objets numériques

Il existe justement une méthode pour calculer ce poids, de façon plus précise et moins réductrice que de prendre en compte uniquement les émissions de CO2 : il s’agit de calculer le MIPS (Material input per service unit) des objets numériques, c’est-à-dire la quantité de ressources nécessaire à la fabrication d’un produit ou d’un service. Le constat est irrévocable : le MIPS des technologies numériques est significativement plus élevé que celui des autres objets. Celui qui bat tous les records est celui d’une puce électronique, puisqu’elle nécessite 32 kilos de matière pour seulement deux grammes à l’issue de la fabrication. Comme l’écrit Guillaume Pitron, « si la mondialisation devait se résumer à un objet, ce serait sans aucun doute la puce électronique » – qui concentre 500 étapes de fabrication faisant intervenir jusqu’à 16 000 sous-traitants présents dans des dizaines de pays dans le monde.

Datacenters caliente !

L’autre sujet dont on parle de plus en plus concerne la chaleur émise par les appareils numériques ou les datacenters, et le défi que représente leur refroidissement. L’enfer numérique lui dédie tout un chapitre, illustrant le problème par une série de chiffres qui font réfléchir : par exemple, certaines parties de datacenters peuvent atteindre les 60°C, obligeant à dédier jusqu’à la moitié de son électricité totale au seul refroidissement.

Pour pallier cet impact négatif, certains projets ont vu le jour – notamment aux Pays-Bas – et visent, par exemple, à réutiliser la chaleur résiduelle d’un datacenter pour chauffer d’autres infrastructures. Mais le pari est risqué et complexe à tenir de manière efficace, et l’idée de pouvoir réutiliser la chaleur créée pour d’autres usages relève, selon certains spécialistes, d’une grande naïveté. Finalement, le meilleur espoir auquel s’accrocher dans le futur, c’est la physique quantique, qui permettrait de réduire de façon drastique le volume pris par les données stockées et de mettre fin à la course aux datacenters toujours plus grands et puissants ; sans parler de la technologie du stockage sur l’ADN, qui accentuerait encore plus la réduction du stockage.

L’autre solution, c’est tout simplement la délocalisation des datacenters dans le Grand Nord, comme l’a opéré Facebook en construisant un gigantesque datacenter dans la ville de Luleå, en service depuis 2013, pour héberger toutes les données du réseau social produites en Europe. L’équipe de L’enfer numérique raconte comment ils se sont rendus sur place pour voir ce datacenter et son environnement au plus près, mais aussi pour examiner toutes les controverses qui ont accompagné ce projet.

Bien sûr, je ne fais qu’effleurer ces sujets que l’auteur développe sur plus de 300 pages, illustrés par des chiffres, des exemples et sa propre enquête menée sur le terrain. Je vous conseille en tout cas cette lecture, qui permet d’ouvrir les yeux sur les dessous du numérique et de faire de nous des utilisateurs plus avertis, et donc, par définition, plus éclairés dans leurs pratiques.

Elodie Buch