Qui a la plus grosse ?
Les grosses alimentations ont tout de même une utilité (à part bien sûr celle de jouer à qui a la plus grosse ; certains boutonneux adeptes de ce jeu, frustrés du fort ralentissement de la course aux gigahertz, se reportent probablement sur la taille de l’alimentation) : les serveurs professionnels. Je ne pense pas que les fournisseurs soient les mêmes cependant, ni les tarifs.
Comme exemple de machine de rêve, j’ai étudié les spécifications d’un gros serveur x86 de Sun. Cette machine bien burnée sert à abriter jusque 10 modules-serveur, chaque module abritant au mieux un serveur quadri-Opteron (8 cœurs !), 64 Go de mémoire et deux disques durs 2”5 au plus[1]. Le maximum indiqué est de 750 W par module, avec une alimentation pour l’ensemble de... 9000 W ! (Pourtant le calculateur en ligne indique un peu moins de 7000 W en chargeant le châssis à fond.)
Les gadgets à 1200 W dénigrées par Hardware.fr sont du matos de petit joueur à côté de ça. Mais le matériel que sert l’alimentation du Sun n’a rien à voir non plus. Le prix doit également être en proportion de la fiabilité exigée.
La chasse aux gaspi
À l’inverse, le petit serveur domestique qui ronronne dans mon placard, un vieux et vaillant Pentium II d’un autre millénaire, avec ses deux disques durs, ne monte pas au-delà de 40 W. Cette consommation basse a été un des critères d’achat par rapport à une machine plus moderne.
Un Mac Mini au repos tournerait à 20 W ; c’est à vérifier (voir http://cohabiter.ch/dossiers/index.php?art=13, l’auteur s’est amusé comme un petit fou avec son wattmètre et a noté la consommation de tous les appareils électriques de la maison : une mine !)
Franchement, des machines qui « sucent » autant que celles présentées dans l’article me choquent, surtout au repos. Je veux bien admettre des pics à 300 W ou plus pour des calculs intensifs, mais plus de 300 W pour se tourner les pouces... Ce ne sont pas des services d’arrière-plan qui, dans les machines de bureau ou familiales, justifient une telle consommation. (Au passage, combien de watts gaspillés grâce au dernier Vista et à sa fringale de puissance ?)
En France on peut déculpabiliser partiellement en se disant que l’électricité nucléaire ne contribue pas au réchauffement climatique, et qu’on peut espérer recycler les déchets dans quelques décennies (soyons optimistes). Sans entrer dans le débat, il faut penser au reste de la planète qui, lui, carbure littéralement au pétrole et au charbon : les machines testées par Hardware.fr sont des aberrations totales. Non à cause de leur puissance intrinsèque qui couvre des besoins pas toujours superficiels (et d’ailleurs aucun lobby écolo ne pourra lutter contre les fabricants de jeux vidéo aux besoins hallucinants), mais à cause de la consommation au repos, celle de la majorité du temps.
C’est cette énergie gaspillée pendant que la machine est inutilisée qu’il faut réduire ; la consommation à pleine charge, même délirante, dure une fraction de la vie de la machine. Nombreuses déjà sont les familles avec plusieurs PC tournant en permanence, et dans les bureaux les ordinateurs tournent au bas mot dix heures par jour, sans compter les serveurs.
Les solutions ne sont pourtant pas inaccessibles :
- Les datacenters bourrés à craquer de serveurs destinés à l’hébergement ou à l’infogérance regardent de très près leur facture électrique, synonyme aussi de dégagements de chaleur intolérables. Le particulier n’a pas à se soucier de voir grimper en flèche la température de la pièce, mais le propriétaire de milliers de serveurs entassés sur quelques mètres carrés, si. Arstechnica vient d’ailleurs de pondre un article sur le sujet.
On est certes loin de la configuration bureautique classique.
- Toujours dans le domaine des serveurs, la mode de la virtualisation (Vmware, Xen, Parallels...) permet de consolider plusieurs machines peu utilisées en une seule plus grosse et plus chargée : on y gagne en place et aussi en consommation électrique puisqu’il n’y a plus au pire qu’une machine qui « dort » en consommant de l’énergie au lieu de trois ou dix auparavant.
Hors serveurs, cette même technique permet à nombre de gens de ne plus avoir qu’une seule machine sur leur bureau au lieu de plusieurs (anciennes applications tournant sur des plate-formes différentes ou périmées, machines de test ou de développement pour informaticiens...)
- Les portables se généralisent, grâce à des prix raisonnables, au wifi, et à une puissance largement suffisante. Pour des raisons d’autonomie, les portables sont beaucoup moins gourmands que les monstres de bureau. Au point que nombre de machines de bureau conçues pour être silencieuses (donc peu gourmandes en kWh, car consommation électrique = chaleur = bruit de ventilateur) utilisent des composants pour portable ! Un cas connu est celui des machines Apple : la compacité de l’iMac ou du Mini viennent des technologies pour portables, un domaine bien maîtrisé par la marque[2].
Certes, le public alléché par le gouffre à énergie de 300 W à vide ne trouvera pas d’équivalent en portable. Par contre, la majorité qui achète un moyen de gamme (150 W à vide) pour des besoins « normaux » peut se laisser tenter par un portable. Le simple renouvellement du parc limitera donc un peu la hausse délirante des consommations.
- Le projet OLPC lancera peut-être la mode des machines peu puissantes mais bien conçues. Mais ces machines peu chères conçues d’abord pour les enfants des pays en voie de développement ne seront hélas pas vendues en Occident. (Mise à jour d’octobre 2007 : Et si, elles seront disponibles !)
- C’est depuis très longtemps un lieu commun de dire que la plupart des machines sont massivement sous-utilisées, que l’on en fait autant sur une machine actuelle que sur un Pentium 200 de 1998 (courrier, internet, traitement de texte, tableur). Les progrès des OS, hors graphismes 3D, ne sont pas tels qu’ils nécessitent tant de puissance.
Pour les applications, c’est parfois une autre histoire... Une machine de 2000, bourrée de RAM autant que possible, sous Windows 2000 et Office 97, devrait pourtant suffire à bien des utilisations. C’est là que réside un des problèmes de l’évolution informatique (Attention, lieux communs !) : tout le monde va de l’avant en même temps, les besoins des uns engloutissant les progrès des autres, et les avancées encourageant l’envolée des besoins (à tous les niveaux : processeurs, périphériques, logiciels, utilisateurs).
Pourquoi ne peut-on avoir une machine sous un Windows 2000 un peu amélioré (ou MacOS ou Linux), sans toutes les options gourmandes (notamment les graphismes), avec un processeur très économe mais des composants au goût du jour parmi ceux qui ne consomment pas trop (disque de 100 Go, bus rapide, mémoire de 2 Go) ? Microsoft y perdrait gros, vue son incapacité à créer des systèmes et outils légers.
(Note de 2008 : C’est parti ! L’Eee d’Asus est le plus connu de la génération des netbooks qui misent sur la mobilité et le prix et non sur la puissance. Et Microsoft est effectivement hors-sujet, avec un Vista bien trop gourmand, et un XP qu’il tente d’achever le plus vite possible.)
La course à la puissance est le fond de commerce d’Intel et AMD. L’envolée des fonctionnalités des ERP, des outils de datawarehouse, des jeux... , le gonflement des bases de données, ne tiennent que par la course à la puissance des processeurs.
Un premier mur (technique, physique, quantique, calorique, économique) a été contourné, et au lieu de gigahertz, les fondeurs multiplient à présent les coeurs... et les watts.
Pour forcer un recentrage sur l’utilisation optimale des outils existants, faudra-t-il une guerre en Asie pour brider le développement du marché informatique, ou un rationnement de l’énergie à cause du coût du pétrole, des besoins en clim’ sur une terre surchauffée, et du retard au renouvellement du parc nucléaire comme au développement du renouvelable ? (Fin du Café du Commerce)
Derniers commentaires