Article réservé aux abonnés

Surveillez la consommation énergétique de votre code

Surveillez la consommation énergétique de votre code
Magazine
Marque
Contenu Premium
Spécialité(s)


Résumé

Être en mesure de surveiller la consommation énergétique de nos applications est une idée attrayante, qui n'est que trop souvent mise à la marge aujourd'hui. C'est d'ailleurs paradoxal, quand on pense que de plus en plus de voitures permettent de connaître la consommation instantanée et la consommation moyenne du véhicule, mais que nos chers ordinateurs, fleurons de la technologie, ne le permettent pas pour nos applications... Mais c'est aussi une tendance qui s'affirme petit à petit et à laquelle à terme, il devrait être difficile d'échapper. Car même si ce n'est qu'un effet de bord, elle nous amène à créer des programmes plus efficaces, qui sont également moins chers à exécuter.


Pourquoi surveiller la consommation énergétique de son code ? Il peut y avoir plusieurs raisons à cela. La première et la plus évidente : tant que nous utiliserons des énergies fossiles pour alimenter et refroidir nos centres de données, tout programme informatique aura un impact négatif en termes d'émissions de gaz à effet de serre. Diminuer son empreinte carbone ne saurait donc être une mauvaise chose. Et quand bien même il s'agirait d'un centre de données « vert », l'électricité qui l'alimente n'est pas illimitée et il convient donc d'être circonspect dans son utilisation. Mais peut-être est-ce pour d'autres motivations, comme tout simplement réduire le coût énergétique lié à l'exécution de nos applications ; qu'y aurait-il de mal à cela ? Finalement, l'important n'est peut-être pas tant la motivation que le résultat. Mais comment obtient-on ce résultat ?

Pour bien comprendre, revenons un instant sur le cycle de vie d'une application : disons que notre jeune start…

La suite est réservée aux abonnés. Il vous reste 96% à découvrir.
  • Accédez à tous les contenus de Connect en illimité
  • Découvrez des listes de lecture et des contenus Premium
  • Consultez les nouveaux articles en avant-première
Envie de lire la suite ? Rejoignez Connect
Je m'abonne maintenant


Article rédigé par

Par le(s) même(s) auteur(s)

Le Continuous Profiler

Magazine
Marque
GNU/Linux Magazine
Numéro
264
Mois de parution
juillet 2023
Spécialité(s)
Résumé

L'arrivée de Docker, de Kubernetes et plus généralement de ce que l'on nomme le cloud natif a bousculé nos habitudes : de la manière dont nous écrivons notre code, dont nous le déployons, mais aussi de la manière dont nous l'observons ! Peu d'entre nous se préoccupaient de l'Application Performance Monitoring (APM) avant 2014, et je suis sûr que beaucoup ignorent encore ce qu'est une trace distribuée. Pourtant, avec nos applications dynamiques découpées en microservices et hébergées dans le cloud, il est de plus en plus difficile de faire l'impasse sur ce genre d'outils. Et le continuous profiler est justement l'un de ces précieux outils.

Application Performance Monitoring

Magazine
Marque
GNU/Linux Magazine
HS n°
Numéro
121
Mois de parution
octobre 2022
Spécialité(s)
Résumé

Après avoir survolé ce qu'était une trace distribuée dans l'article sur les 3 piliers de l'observabilité, et donné une description des différents éléments qui la composaient, nous allons entrer un peu plus dans les détails de l'instrumentation proprement dite. Car si collecter des traces pour mieux comprendre une application en microservices change totalement la donne, pour autant, cela demande un peu de travail. Et c'est justement ce qui explique la montée en puissance d'OpenTelementry aujourd'hui. Vous allez découvrir pourquoi.

Les logs, encore et toujours pertinents

Magazine
Marque
GNU/Linux Magazine
HS n°
Numéro
121
Mois de parution
octobre 2022
Spécialité(s)
Résumé

Parmi les trois piliers de l'observabilité, s'il y en a bien un qui n'a pas besoin d'être présenté, ce sont bien les logs. Qui n'a pas son anecdote sur un print initialement utilisé par un développeur pour s'assurer du bon déroulement de son code qui finit par se retrouver dans le code en production ? Le log est réellement l'instrument qui nous permet de répondre à cette question rudimentaire, mais essentielle : que se passe-t-il dans mon code à l'instant t. Mais parce qu'il est simple à utiliser et flexible à souhait, le log pose souvent un réel problème lorsqu'une application passe en production. Et c'est encore plus vrai dans les systèmes distribués.

La magie des métriques

Magazine
Marque
GNU/Linux Magazine
HS n°
Numéro
121
Mois de parution
octobre 2022
Spécialité(s)
Résumé

Les métriques sont de loin, à mon humble avis, le signal le plus fascinant. Je vous l'accorde, elles sont aussi vieilles que l'informatique elle-même et pour cause : « ce qui ne se mesure pas ne s'améliore pas » [1]. Mais mesurer une chose est parfois un art, et dans les technologies de l'informatique, c'est un art qui a fondamentalement évolué ces dernières années. Non pas qu'on ne mesure plus les mêmes choses qu'il y a 20 ans, la charge d'un CPU et les IOPS ont toujours leur importance, mais on ne les aborde simplement plus de la même manière, surtout quand on vient à parler de systèmes distribués.

Les listes de lecture

Débuter avec les conteneurs

8 article(s) - ajoutée le 01/07/2020
Découvrez notre sélection d'articles pour faire vos premiers pas avec les conteneurs, apprendre à les configurer et les utiliser au quotidien.

Les bases du DevOps

11 article(s) - ajoutée le 02/07/2020
Si vous recherchez quels sont les outils du DevOps et comment les utiliser, cette liste est faite pour vous.

Tout pour la sauvegarde

8 article(s) - ajoutée le 02/07/2020
Il est essentiel d'effectuer des sauvegardes régulières de son travail pour éviter de perdre toutes ses données bêtement. De nombreux outils sont disponibles pour nous assister dans cette tâche.
Plus de listes de lecture