Le projet open source Apache Kafka est une plateforme, distribuée, d’event streaming, employée par de nombreuses entreprises pour implémenter leurs solutions logicielles. Mais, de manière concrète de quoi s’agit-il ? Qu’est-ce que Kafka entend par la notion d’event streaming ? Quelques éléments de réponse dans cet article d’introduction à son déploiement et utilisation.
Comme de nombreuses solutions logicielles élaborées, Kafka vient avec son jargon et ses concepts clés. Afin de bien appréhender son fonctionnement interne, nous allons donc commencer cet article en explicitant les éléments de son architecture et la terminologie utilisée par le projet pour désigner ceux-ci ainsi que la manière dont il conceptualise les données qu’il manipule.
1. Concepts clés de Kafka
Le projet Kafka se définit, avant tout, comme une plateforme d’event streaming, donc nous allons commencer par expliciter la signification de ce terme. En essence, il s’agit de capturer des données, en temps réel, depuis des sources diverses et variées, telles que des bases de données, des capteurs, des appareils mobiles, des microservices, et toutes autres sources logiciels. Après cette capture, ces informations peuvent être stockées pour être utilisées plus tard, ou être directement manipulées ou éditées, ou peuvent encore simplement déclencher...
- Accédez à tous les contenus de Connect en illimité
- Découvrez des listes de lecture et des contenus Premium
- Consultez les nouveaux articles en avant-première