Optimisation d’applications en Pharo

Magazine
Marque
GNU/Linux Magazine
Numéro
123
Mois de parution
janvier 2010


Résumé

Depuis que le développement logiciel existe, les développeurs se sont confrontés aux problèmes de performance des applications. L’avènement des langages avancés comme Smalltalk, Java ou C# a permis de réduire considérablement les temps de développement des applications (en plus de les structurer) pour permettre aux développeurs de se consacrer à la logique applicative. Bien que les compilateurs génèrent du code efficace, l’optimisation manuelle est encore largement nécessaire. Il est dit qu’une application qui n’a jamais été analysée et optimisée peut doubler sa vitesse d’exécution en reconsidérant les algorithmes et en optimisant les points-clés consommateurs de temps de calcul. Développer du code efficace en temps nécessite un certain investissement mais est à la portée de tous. Cependant, il est nécessaire de se focaliser sur les méthodes les plus coûteuses dans le programme afin d’éviter de perdre du temps de développement et de complexifier inutilement le logiciel. Car optimiser implique souvent d’introduire de la complexité au travers de caches et autres pratiques. Nous allons montrer les outils disponibles en Pharo, un nouveau Smalltalk open source disponible sur http://www.pharo-project.org.


1. Profiler, c’est quoi ?

Profiler une application est le terme technique qui fait référence à l’optimisation de programmes. Profiler, c’est mesurer et améliorer. Pour cela, on utilise un profileur, un outil permettant d’étudier les performances d’un logiciel en mesurant les ressources utilisées par un programme. Un profileur collecte deux types d’informations : le temps utilisé par les méthodes du programme et la place que prend le programme en mémoire. Ceci permet de détecter les méthodes qui consomment le plus de temps ou de place. Ainsi, on peut se concentrer sur les parties du code les plus problématiques car le profilage est une histoire de compromis entre le temps de développement et le temps d'exécution du logiciel. L’exécution d’un logiciel respecte souvent la décomposition 20-80 : 20% des méthodes utilisent 80% des ressources. De la même manière, le profilage de 20% des méthodes va permettre de gagner 80% du temps.

Profiler un...

Cet article est réservé aux abonnés. Il vous reste 96% à découvrir.
S'abonner à Connect
  • Accédez à tous les contenus de Connect en illimité
  • Découvrez des listes de lecture et des contenus Premium
  • Consultez les nouveaux articles en avant-première
Je m'abonne


Article rédigé par

Par le(s) même(s) auteur(s)

Un chat en Pharo : le client

Magazine
Marque
GNU/Linux Magazine
Numéro
189
Mois de parution
janvier 2016
Spécialité(s)
Résumé
Poursuivons la découverte de Pharo et de quelques-uns de ses principaux frameworks. Vous avez déjà fait connaissance avec Teapot permettant de concevoir des services. Dans cet article, vous allez étudier la construction de requêtes HTTP à l'aide de Zinc [1] et construire une interface graphique à l'aide de Spec.

Les derniers articles Premiums

Les derniers articles Premium

Brève introduction pratique à ZFS

Magazine
Marque
Contenu Premium
Spécialité(s)
Résumé

Il est grand temps de passer à un système de fichiers plus robuste et performant : ZFS. Avec ses fonctionnalités avancées, il assure une intégrité des données inégalée et simplifie la gestion des volumes de stockage. Il permet aussi de faire des snapshots, des clones, et de la déduplication, il est donc la solution idéale pour les environnements de stockage critiques. Découvrons ensemble pourquoi ZFS est LE choix incontournable pour l'avenir du stockage de données.

Générez votre serveur JEE sur-mesure avec Wildfly Glow

Magazine
Marque
Contenu Premium
Spécialité(s)
Résumé

Et, si, en une ligne de commandes, on pouvait reconstruire son serveur JEE pour qu’il soit configuré, sur mesure, pour les besoins des applications qu’il embarque ? Et si on pouvait aller encore plus loin, en distribuant l’ensemble, assemblé sous la forme d’un jar exécutable ? Et si on pouvait même déployer le tout, automatiquement, sur OpenShift ? Grâce à Wildfly Glow [1], c’est possible ! Tout du moins, pour le serveur JEE open source Wildfly [2]. Démonstration dans cet article.

Les listes de lecture

9 article(s) - ajoutée le 01/07/2020
Vous désirez apprendre le langage Python, mais ne savez pas trop par où commencer ? Cette liste de lecture vous permettra de faire vos premiers pas en découvrant l'écosystème de Python et en écrivant de petits scripts.
11 article(s) - ajoutée le 01/07/2020
La base de tout programme effectuant une tâche un tant soit peu complexe est un algorithme, une méthode permettant de manipuler des données pour obtenir un résultat attendu. Dans cette liste, vous pourrez découvrir quelques spécimens d'algorithmes.
10 article(s) - ajoutée le 01/07/2020
À quoi bon se targuer de posséder des pétaoctets de données si l'on est incapable d'analyser ces dernières ? Cette liste vous aidera à "faire parler" vos données.
Voir les 64 listes de lecture

Abonnez-vous maintenant

et profitez de tous les contenus en illimité

Je découvre les offres

Déjà abonné ? Connectez-vous