Impact des datas centers sur l’écologie… vrai ou faux débat ?

Les datas centers sont des installations parfois très vastes, qui dévorent de l’énergie en grande quantité, c’est un fait que l’on ne peut pas nier et il est clair que le débat sur cette consommation doit exister. Ne serait-ce que par le fait qu’il fait aussi bouger le domaine de la recherche. Les datas centers ont d’ailleurs davantage de chances dle pouvoir se réinventer, alors que ce n’est pas le cas par exemple pour le secteur du pétrole et encore moins pour celui du gaz…

Une évolution évidente de la masse des données à traiter…

Lorsque l’on parle des datas centers, c’est souvent en mal. On entend souvent dire que la dématérialisation n’existe pas, puisqu’elle se réincarne dans des usines de traitement de données. La consommation énergétique de ces derniers est par ailleurs catastrophique. Les besoins en refroidissement sont très largement aquavores, etc… 

Oui, certainement ! Mais si le Data Center n’était en fait qu’une phase éphémère du traitement et du stockage des données dans le temps ?

Et si, il pouvait évoluer au même rythme que l’ordinateur ? 

Si vous avez des doutes sur ce point, il faut savoir que Gordon Moore en 1965 avait constaté que la puissance des transistors logés dans les microprocesseurs, double tous les deux ans (loi de Moore – en réalité ils doublent tous les 18 mois). Depuis plus de 55 ans, la puissance des microprocesseurs a toujours évolué de manière constante, entraînant une diminution progressive de la taille des appareils électroniques. La puissance d’un Iphone 12 est très largement supérieure à un ordinateur IBM qui avait la taille d’un terrain de tennis au moment où Moore constatait une des trois règles qui seraient les principaux piliers de l’ère numérique. 

Pourquoi devrait-il en être autrement avec les Datas Centers, qui sont en quelque sortes de gigantesques ordinateurs, lesquels abritent eux-mêmes, des dizaines de milliers d’ordinateurs ?

Certains pourraient avancer l’argument que la masse des données à traiter n’est rien aujourd’hui par rapport à ce qu’elle sera dans un futur proche. C’est vrai, surtout si l’on tient compte du développement de l’internet des objets, de celui de l’électricité, de l’explosion des NFT, de la Blockchain, des crypto-monnaies, ou bien encore de la numérisation de la médecine et des services hospitaliers. Vu sous cet angle, le coût du traitement des données va augmenter de manière exponentielle et avec lui celui de la facture énergétique. Il est donc logique que, plus importants seront les volumes à traiter, plus importantes seront donc les infrastructures qui servent au traitement des données…

Une recherche poussée sur d’autres méthodes de stockage…

Dans une logique équivalente à celle de l’industrie traditionnelle, nous devrions donc assister à la construction de nombreux Data Centers, toujours plus grands et toujours plus importants (et de fait toujours plus énergivores). Une chose bien entendu insupportable d’un point de vue écologique et surtout d’un point de vue écologiste (ce qui est légèrement différent). On peut néanmoins se demander si cette logique s’applique vraiment au monde numérique (rappelez – vous la loi de Moore) ?

Probablement pas, car si l’évolution des ventes d’un produit qui reste sensiblement le même d’une génération à l’autre augmente, effectivement les infrastructures qui le produisent doivent inévitablement se développer elles-aussi. Dans le cas du traitement des données, cette règle ne s’applique pas puisqu’en effet, même si le volume de celles-ci augmente, rien ne nous prouve – pour le moment du moins – que la technologie n’arrivera pas à aller plus vite en matière de performance de traitement. 

Le coût énergétique lié à celui-ci et au refroidissement des Datas Centers, est depuis longtemps une source de préoccupation de première importance pour les opérateurs de ces infrastructures. Si le volume augmente, les dépenses augmentent aussi et pas un peu. La logique veut donc qu’il est de toute façon plus utile de consacrer plusieurs milliards de dollars s’il le faut dans la recherche plutôt que d’être submergé, dans les années à venir par des coûts de traitement très élevés. C’est en partie cela qui avait poussé Google à se lancer dans la recherche sur la fusion nucléaire, il y a quelques années. Après cinq ans, le projet à toutefois été relégué au cimetière (Google possède lui aussi son propre cimetière). Produire de l’énergie n’était peut être pas en effet, la solution idéale pour justifier de plus en plus de dépenses énergétiques (quoi qu’il faut aussi noter qu’Amazon déploie en ce moment une capacité de production de 10 GW d’énergie solaire, ce qui est en soi une très bonne chose). En revanche, consacrer tous les efforts sur une optimisation du traitement des données et sur les économies (énergétiques et au passage financières) que l’on pouvait faire était plutôt une solution censée, du moins à moyen terme, car la production d’énergie reste un des plus gros défis de ces prochaines années. D’autre part, quand on connaît les problèmes, on peut se concentrer sur les solutions et ces dernières, tout le monde les connaît. Elles consistent en l’augmentation des puissances de stockage dans un matériel toujours plus petit et surtout moins énergivore, ainsi que dans le développement d’infrastructures permettant le recyclage de la chaleur produite. Mieux vaut en effet récupérer et transformer cette même chaleur, plutôt que d’y consacrer des sommes faramineuses pour refroidir les équipements. On pourrait de ce fait avoir des datas center qui fonctionnent en parfaite autonomie. Sur ce point, de nombreuses solutions sont possibles et parmi ces dernières, de nouvelles voies se sont ouvertes ces dernières années…

Un stockage sur des disques en verre…

Il n’y a pas encore si longtemps de cela, nous utilisions des disques en plastique pour stocker les données d’un film ou l’album d’un de nos groupes préférés. Un stockage de données sur un matériel particulier est de toute façon possible. Seulement vu l’ampleur du volume des données à traiter dont nous parlons ici, les matériaux utilisés doivent être largement plus adaptés. Il en est par ailleurs un que nous connaissons tous et qui possède des caractéristiques non négligeables en termes de stockage (de données) : le verre…

Récemment une équipe de Microsoft a réussi à graver l’entièreté des données d’un long métrage (Superman) sur une petite plaque de verre. Si cette prouesse ne prouve pas pour l’instant que les Datas Centers sont un mal (seulement) provisoire, il n’empêche que l’expérience est plus qu’intéressante. Notamment en termes caloriques, car le verre est un matériau d’une grande souplesse. Dans la chaleur, il est chaud et dans le froid, il reste froid…

Utiliser le verre pour stocker des données, c’est aussi une idée qu’ont eu des chercheurs de l’Université de Southampton au Royaume Uni. Ces derniers ont réussi un nouvel exploit qui consiste à graver 500 To de données (l’équivalent de 125 millions de photos) sur un disque de verre de la taille d’un CD. Mieux encore, ce dernier pourrait survivre pendant 15 milliards d’années s’il est conservé dans de bonnes conditions. Alors peut – être – et insistons sur ce terme – nous avons ici une excellente opportunité de trouver une solution partielle aux problématiques liées au stockage des données, mais vu la longévité dans le temps, de pouvoir aussi léguer des informations exceptionnelles sur ce que nous avons été, à de très lointains descendants. Imaginez une seule minute que nos ancêtres à Lascaux auraient pu en faire de même ?

Du stockage sur du verre… Voyons, de nouvelles polémiques vont certainement se mettre en place puisqu’il y a déjà deux ans de cela, on nous a annoncé des pénuries à venir dans les prochaines années. Néanmoins si nous allons au delà de cela, admettons que si le stockage des données pouvait se faire sur ce type de matériaux (et cela n’en interdit pas d’autres comme l’ADN synthétique), on pourrait diminuer de manière conséquente la facture énergétique des centres de données, du moins sur l’aspect du stockage. Avec de plus, l’informatique quantique qui arrive à grands pas et qui va accélérer considérablement la vitesse des opérations numériques, tout laisse penser que le data center d’aujourd’hui et celui de demain seront très largement différents…

Rejoindre le groupe Facebook

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Résoudre : *
20 × 6 =


Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut