Exploiter des modèles préentraînés

Magazine
Marque
GNU/Linux Magazine
HS n°
Numéro
117
Mois de parution
novembre 2021
Spécialité(s)


Résumé

Il existe en ligne quelques réseaux de neurones profonds, préentraînés, qui ouvrent la voie de l’utilisation de ces réseaux complexes, sans avoir recours à d’énormes fermes de calcul ni à de gigantesques bases de données qualifiées. Comment y accéder, les utiliser, et surtout les plier à nos besoins ? Nous verrons deux approches : le paradigme réseau de neurones et XGBoost.


Les réseaux de neurones profonds sont frustrants : ils offrent un paradigme générique, permettant de coupler dans une même approche la génération automatique de features, leur sélection et leur filtrage pour aboutir à une classification ou une régression.

Les mathématiques sous-jacentes, relativement simples, consistent essentiellement à pondérer et sommer des entrées et à les faire passer par le tamis de fonctions non linéaires. Leur entraînement quant à lui s’appuie sur un ajustement des poids de manière proportionnelle à l’erreur, sur la base de la rétropropagation du gradient.

Leur polymorphisme leur permet de prendre des formes variées, du simple perceptron jusqu’au réseau convolutionnel, et ce, en multipliant les couches, y compris hétérogènes, ad libitum. Tous types de signaux peuvent être traités, de 1 à n dimensions, avec ou sans dépendance temporelle.

Enfin, leur…

Cet article est réservé aux abonnés. Il vous reste 97% à découvrir.
S'abonner à Connect
  • Accédez à tous les contenus de Connect en illimité
  • Découvrez des listes de lecture et des contenus Premium
  • Consultez les nouveaux articles en avant-première
Je m'abonne


Article rédigé par

Abonnez-vous maintenant

et profitez de tous les contenus en illimité

Je découvre les offres

Déjà abonné ? Connectez-vous