Conjuguer performance et souplesse avec LLVM

Magazine
Marque
GNU/Linux Magazine
Numéro
201
Mois de parution
février 2017
Domaines


Résumé
Température, pression, vitesse, puissance, sondage, euros, clics, position géographique… tout est mesuré, jaugé, quantifié, comparé, de nos jours ! Et avec pour conséquence un accroissement vertigineux de la quantité de données disponible sur un sujet donné. Cette masse de données fait le régal des « data scientists », et offre des perspectives dans de nombreux domaines, et pas uniquement pour offrir aux consommateurs toujours plus à consommer. Mais quel que soit l’usage que l’on fait de ces données, il faut de la puissance pour traiter très rapidement de grands ensembles, et de la souplesse pour pouvoir explorer sans contrainte. Bref, il nous faut un Lisp la souplesse du Python et les performances du C.


Comprendre un amas multidimensionnel de données, avec des millions d’échantillons, impose l’utilisation d’un outil très performant, mais aussi très souple pour pouvoir confronter rapidement ses intuitions avec la réalité des données. Dans cet article, nous allons étendre un petit lisp, afin de le doter d’un compilateur embarqué, assurant ainsi souplesse et performance lors du traitement des données. J’espère ainsi vous convaincre de l’attrait des langages de type Lisp pour le Machine Learning et la Big Data.

1. Besoin du data scientist

Deux tâches principales incombent au data scientist, lorsqu’est soumis à sa sagacité un ensemble de données. La première, est de comprendre les liens entre les données qui lui sont présentées. La seconde, de  se servir de cette manne pour prédire un événement futur.

Un exemple du premier cas peut être l’analyse de données socioculturelles, financières, économiques… pour comprendre le résultat d’un vote. Ou...

Cet article est réservé aux abonnés. Il vous reste 96% à découvrir.
à partir de 21,65€ HT/mois/lecteur pour un accès 5 lecteurs à toute la plateforme
J'en profite


Articles qui pourraient vous intéresser...

Les différents frameworks de web scraping

Magazine
Marque
GNU/Linux Magazine
HS n°
Numéro
114
Mois de parution
mai 2021
Domaines
Résumé

Il ne viendrait à l’idée à personne de nos jours de se lancer dans la récupération de données sur le Web sans s’appuyer sur un framework simplifiant la tâche et évitant de réinventer la roue (carrée). Voyons donc quelques outils indispensables permettant de mener à bien cette tâche.

Écrire des mathématiques en LaTeX

Magazine
Marque
GNU/Linux Magazine
HS n°
Numéro
114
Mois de parution
mai 2021
Domaines
Résumé

S’il y a bien un domaine dans lequel excelle LaTeX, c’est l’écriture de formules mathématiques complexes et autres algorithmes. Une fois que l’on connaît et que l’on comprend la syntaxe, c’est très simple… encore faut-il avoir vu cela au moins une fois !

Neuropsydia : un module Python pour les neuropsychologues

Magazine
Marque
GNU/Linux Magazine
Numéro
248
Mois de parution
mai 2021
Domaines
Résumé

Il existe peu d’outils permettant de créer « simplement » du matériel d’évaluation neuropsychologique. Neuropsydia est un outil qui nécessite un minimum de connaissances en informatique, mais permet un gain de temps considérable, si l’on accepte d’écrire quelques lignes de code Python.

Web scraping avec Node.js

Magazine
Marque
GNU/Linux Magazine
HS n°
Numéro
114
Mois de parution
mai 2021
Domaines
Résumé

Le web scraping, c’est l’activité qui consiste à gratter (to scrap) du code HTML pour en extraire des données exploitables. Node.js se prête particulièrement bien à l’exercice, aussi je vous propose d’apprendre à gratter de la donnée avec ce formidable outil.