Être en mesure de surveiller la consommation énergétique de nos applications est une idée attrayante, qui n'est que trop souvent mise à la marge aujourd'hui. C'est d'ailleurs paradoxal, quand on pense que de plus en plus de voitures permettent de connaître la consommation instantanée et la consommation moyenne du véhicule, mais que nos chers ordinateurs, fleurons de la technologie, ne le permettent pas pour nos applications... Mais c'est aussi une tendance qui s'affirme petit à petit et à laquelle à terme, il devrait être difficile d'échapper. Car même si ce n'est qu'un effet de bord, elle nous amène à créer des programmes plus efficaces, qui sont également moins chers à exécuter.
Pourquoi surveiller la consommation énergétique de son code ? Il peut y avoir plusieurs raisons à cela. La première et la plus évidente : tant que nous utiliserons des énergies fossiles pour alimenter et refroidir nos centres de données, tout programme informatique aura un impact négatif en termes d'émissions de gaz à effet de serre. Diminuer son empreinte carbone ne saurait donc être une mauvaise chose. Et quand bien même il s'agirait d'un centre de données « vert », l'électricité qui l'alimente n'est pas illimitée et il convient donc d'être circonspect dans son utilisation. Mais peut-être est-ce pour d'autres motivations, comme tout simplement réduire le coût énergétique lié à l'exécution de nos applications ; qu'y aurait-il de mal à cela ? Finalement, l'important n'est peut-être pas tant la motivation que le résultat. Mais comment obtient-on ce résultat ?
Pour bien comprendre, revenons un instant sur le cycle de vie d'une application : disons...
- Accédez à tous les contenus de Connect en illimité
- Découvrez des listes de lecture et des contenus Premium
- Consultez les nouveaux articles en avant-première