Utilisez la régression linéaire pour la prédiction

Magazine
Marque
GNU/Linux Magazine
HS n°
Numéro
94
Mois de parution
janvier 2018
Domaines


Résumé
Face à la complexité d’un ensemble de données, le data scientist commence par les scruter sous tous les angles. Cette analyse graphique permet parfois de mettre en évidence des relations entre différentes dimensions. Dans ces cas-là, il est alors tentant de quantifier cette relation. Parmi les outils à la disposition du data scientist, la régression linéaire est l’un des plus simples, dont nous allons voir qu’il ne permet pas uniquement de lier des données selon une relation linéaire.

1. Dis-moi tout, et je te dirais qui tu es

L’apprentissage machine vise généralement deux buts : la classification et la prédiction. Le premier consiste à analyser un ensemble de données, et à attacher une étiquette à cet ensemble.

Il peut par exemple s’agir de données telles que le solde du compte courant d’un individu, ces derniers déplacements, son âge, l’âge de ses enfants, ses diplômes, son historique de navigation sur Internet, etc. Tout cela permettant de classer cet individu dans la catégorie « futur primo accédant » ou bien « futur optimiseur fiscal », etc.

Ou alors, cette classification peut travailler sur une image, et l’identifier comme étant celle d’un chat.

Le second but, la prédiction, est différent. Il s’agit dans ce cas de se baser sur un ensemble de données que l’on nomme prédicteurs, pour prédire une inconnue particulière.

Une application typique serait l’analyse du kilométrage d’une voiture, du type de trajet qu’elle...

Cet article est réservé aux abonnés. Il vous reste 97% à découvrir.
à partir de 21,65€ HT/mois/lecteur pour un accès 5 lecteurs à toute la plateforme
J'en profite


Articles qui pourraient vous intéresser...

Découvrez la programmation différentiable

Magazine
Marque
GNU/Linux Magazine
Numéro
246
Mois de parution
mars 2021
Domaines
Résumé

La programmation différentiable est une nouvelle façon de penser la programmation. Le principe consiste à considérer tout un programme comme une fonction qu’on puisse différentier, et donc optimiser. Nous allons construire dans cet article les outils de base pour ce faire, et présenter la librairie JAX, qui facilite la tâche.

Scikit-image, une alternative à OpenCV pour la reconnaissance d'images

Magazine
Marque
GNU/Linux Magazine
Numéro
244
Mois de parution
janvier 2021
Domaines
Résumé

Une fois n'est pas coutume, nous allons découvrir et utiliser une alternative à OpenCV, scikit-image communément appelé skimage. Nous implémenterons la reconnaissance d'images avec la méthode des histogrammes de gradients orientés (HOG : Histogram of Oriented Gradients) associée à une machine à vecteurs de support (SVM : Support Vector Machine). Cette méthode est employée dans bien des applications telles que l'automobile, pour la détection de piétons [1].

Intelligence artificielle : la grande méprise

Magazine
Marque
Linux Pratique
Numéro
118
Mois de parution
mars 2020
Domaines
Résumé

Que ce soit dans les salons professionnels, la presse spécialisée ou même les publicités adressées au grand public, on n’échappe pas à l’intelligence artificielle. Pourtant, derrière ce terme, finalement très fourre-tout, il existe une véritable science. Mais entre l’état de l’art et ce qui existe réellement, il y a une différence qui change la donne.