Google Knative : le futur standard du déploiement d'applications serverless ?

Magazine
Marque
GNU/Linux Magazine
HS n°
Numéro
101
Mois de parution
mars 2019
Domaines


Résumé
Le FaaS (pour Function as a Service), le « serverless », c'est un peu la terre promise en ce moment, et pour cause. Jamais les petits gars des opérations n'ont autant pu se réjouir d'avoir une infrastructure aussi bien huilée : de belles machines HCI (Hyper-Converged Infrastructure), sur lesquelles apparaissent comme des pop-corns de jolies machines virtuelles, et par-dessus tout ça un beau et flambant neuf Kubernetes. Alors oui, ils sont fiers, et ils ont de quoi : ils sont parvenus à maîtriser tout ça. D'un autre côté, ça arrange les petits gars du dev : puisque les ops sont si épanouis, qu'ils nous donnent l'occasion de nous épanouir à notre tour, et de ne nous consacrer qu'à notre code, pas au build, pas au pipeline, pas au déploiement, que le code ! Et c'est clairement la promesse que nous fait le serverless, mais Knative est-il en mesure de la tenir ?

Dans le petit monde du FaaS, chacun y va de son petit projet Open Source (je précise Open Source, parce que dans le monde très fermé des fournisseurs de Cloud, l'ancêtre AWS Lambda se pâme confortablement sur son trône, tandis que Azure Function et Google Functions se tapissent dans l'ombre en rêvant de lui couper la tête) :

  • IBM avec OpenWisk ;
  • Bitnami avec Kubeless [1] ;
  • VMware avec OpenFaaS ;
  • Fission pour Platform9 ;
  • Et Fn pour Oracle.

Tout cela pour n'évoquer que les plus connus, mais vous pouvez également entendre parler de Iron.io [2] ou de Nuclio, et sans doute encore d'autres.

Et voici le dernier venu de la bande, mais probablement pas le moindre, car il nous vient tout droit de chez Google (comme Kubernetes au passage) : Knative. Google ? Oui, mais pas que : il a aussi derrière lui IBM, Redhat (bon que IBM donc), SAP et Pivotal. En somme des poids lourds et des personnes capables, on l'espère, de fédérer une belle communauté Open Source.

Sur le papier, Knative est...

Cet article est réservé aux abonnés. Il vous reste 97% à découvrir.
à partir de 21,65€ HT/mois/lecteur pour un accès 5 lecteurs à toute la plateforme
J'en profite


Articles qui pourraient vous intéresser...

Les utilitaires relatifs aux namespaces

Magazine
Marque
GNU/Linux Magazine
Numéro
240
Mois de parution
septembre 2020
Domaines
Résumé

Après un premier article [1] sur la notion de namespace et de conteneur avec un passage en revue des appels système, ce second opus se concentre sur les commandes mises à disposition de l’utilisateur.

Supervision des architectures à microservices avec Prometheus

Magazine
Marque
Linux Pratique
Numéro
121
Mois de parution
septembre 2020
Domaines
Résumé

Lorsqu’on supervise des services statiques, tel qu’un serveur apache ou un serveur de base de données, on se concentre sur le bon fonctionnement de ces derniers (réponse aux requêtes, état : démarré ou non...) et donc un outil de supervision est nécessaire pour évaluer le statut du service en question. Un outil comme Nagios est destiné à ce type de supervision. Mais si nos services sont susceptibles de disparaître à tout moment et sont remplacés par de nouvelles instances, comment pourra-t-on les superviser ? S’ils ne sont pas déployés sur leurs hôtes d’origine, comment peut-on les localiser dans ce cas ? Et si ces services sont sous forme de conteneurs, comment alors superviser les processus à l’intérieur de ces conteneurs ? Et enfin, si ces services sont déployés dans un orchestrateur à l’instar de Kubernetes, et donc sous forme de pod, comment superviser l’ensemble de ces pods repartis sur différents nœuds ? Dans cet article, nous répondons à toutes ces questions avec des cas pratiques. Mais voici déjà un indice concernant la réponse : Prometheus.

Premiers pas et prérequis

Magazine
Marque
Linux Pratique
HS n°
Numéro
48
Mois de parution
septembre 2020
Domaines
Résumé

Dans ce premier chapitre, nous allons aborder de nombreux sujets, allant du respect des conditions d’utilisation de « Red Hat Enterprise Linux » (RHEL), de l’installation du système, de sa connexion au réseau « Red Hat » jusqu’à la description de notre cas d’étude. Une fois ces prérequis évoqués et ces étapes préliminaires étudiées, nous passerons au vif du sujet en installant Ansible, que nous utiliserons dans le prochain chapitre afin de commencer à mettre en place notre serveur.

Tendance actuelle : la conteneurisation d'applications

Magazine
Marque
GNU/Linux Magazine
HS n°
Numéro
110
Mois de parution
septembre 2020
Domaines
Résumé

Actuellement, il est fréquent de voir des applications proposées sous la forme d'un conteneur. Chaque mise en conteneur – ou conteneurisation – d'une application est particulière et j'ai justement dû récemment me plier à l'exercice : je partage avec vous mon expérience dans cet article.