Installation d’un moteur de recherche pour du géocodage

Magazine
Marque
GNU/Linux Magazine
Numéro
189
Mois de parution
janvier 2016
Domaines


Résumé
Le géocodage c’est associer des coordonnées géographiques à une adresse. Cela permet de savoir avec précision où se situe l’adresse. Il faut donc avoir les adresses et un moyen de chercher dans cette énorme base de données.

Body


Dans ce court article, nous allons voir comment installer addok, un moteur de recherche d’adresses. Nous verrons ensuite où trouver les données et comment les mettre dans ce moteur de recherche. Il n’y aura ensuite plus qu’à lancer le service Web pour répondre aux requêtes.

1. Installation d’Addok

Il y a plus de 20 millions d’adresses dans la BANO, donc pour avoir des performances acceptables l’auteur a choisi d’utiliser Redis [2] qui est une base NoSQL qui stocke ses données en RAM. Cela implique que :

1. c’est rapide ;

2. ça consomme beaucoup de RAM.

Le reste du logiciel est développé en Python3 (le futur est arrivé \o/). Nous allons donc travailler dans un virtualenv.

On va installer les logiciels sur notre ubuntu 14.04 :

$ sudo apt-get install redis-server python3.4 python3.4-dev python-pip python-virtualenv virtualenvwrapper

On va se créer un dossier dans lequel on va faire notre tambouille :

$ mkdir ~/ban && cd ~/ban

On crée ensuite notre virtualenv qui va accueillir addok :

$ virtualenv addok --python=/usr/bin/python3.4

On active le virtualenv puis on installe addok :

$ source addok/bin/activate

$ pip install addok

Maintenant, addok devrait être installé.

2. Téléchargement des données

On va donc télécharger les données de la BANO. Je vous laisse choisir quelles données vous souhaitez avoir dans votre moteur de recherche, mais faites attention, plus on met de données, plus Redis va consommer de la mémoire vive. Pour toute la France, Redis a besoin de plus de 20 Gio de RAM.

Pour télécharger les données du département 14, on utilise la commande suivante :

$ wget http://bano.openstreetmap.fr/data/bano-14.json.gz

Notez que si vous voulez télécharger plusieurs départements, vous n’êtes pas obligé de taper plusieurs fois la commande, vous pouvez mettre les numéros entre accolades séparés par des virgules. Par exemple, pour télécharger les données de la Basse-Normandie, soit les départements 14, 50, et 61, on peut le faire comme ça :

$ wget http://bano.openstreetmap.fr/data/bano-{14,50,61}.json.gz

On décompresse le(s) fichier(s) téléchargé(s) et on met tout dans un fichier qu’on va importer :

$ gzip -d *gz

$ cat *json > data.json

2.1 Code INSEE

Il se peut que vous ayez besoin des codes INSEE des communes. Pour cela, il suffit de rajouter un fichier de configuration qu’on va appeler local.py. Dedans il suffit de mettre :

EXTRA_FIELDS = [

            {'key': 'citycode'},

            ]

FILTERS = ["type", "postcode", "citycode"]

Addok appelle le code INSEE « citycode » (c’est ce que vous devrez chercher dans le JSON contenant les réponses). Ensuite, on indique ce fichier à addok avec :

$ export ADDOK_CONFIG_MODULE=chemin/vers/le/fichier/local.py

Donc si local.py est dans le répertoire courant, il suffit de faire :

$ export ADDOK_CONFIG_MODULE=local.py

Lorsque vous lancerez les deux commandes suivantes, vous devriez avoir le message qui vous indique qu’il l’a bien pris en compte :

Loaded local config from local.py

3. Import des données

On va pouvoir importer les données maintenant que tout est en place :

$ addok batch data.json

Cela va mettre un petit moment, plus ou moins long suivant la quantité de données que vous lui faites ingérer. Vous allez aussi voir la quantité de RAM utilisée exploser. Pire que quand on lance du Java... enfin presque.

Pour les départements du 14, 50 et 61, la vm ubuntu qui me sert à vérifier l’intégralité des commandes que je donne consomme 994Mio de RAM.

Maintenant que les données sont dans Redis, on va calculer les n-gram [3]. Un n-gram est une partie de n éléments d’une suite de mots. Pour faire simple, c’est l’autocomplétion, c’est-à-dire que quand on lui donne « infant » il va nous proposer les adresses ayant le mot « infanterie ». Cette étape va prendre un peu de temps. :

$ addok ngrams

4. Lancement du service Web

On va lancer gunicorn qui va gérer les requêtes. Par défaut il écoute sur localhost ce qui n’est pas très pratique pour un serveur ; on surcharge donc cette adresse. Par défaut il écoute sur le port 8000 :

$ gunicorn addok.server:app --bind 0.0.0.0

On teste avec un navigateur en allant sur http://adresse-ip:8000/search/?q=Ville en remplaçant Ville par une ville présente dans les données que vous lui avez fournies. Dans mon cas, http://adresse-ip:8000/search/?q=Caen renvoie un fichier json avec toutes les informations qu’il trouve liées au mot Caen.

Maintenant, pour lancer gunicorn, le plus simple est d’écrire un script d’init pour que systemd (ou un autre init si vous êtes réticent au progrès :)) le lance au démarrage.

Conclusion

On vient donc d’installer un moteur permettant d’effectuer des recherches dans toutes les adresses que l’on souhaite, et ce très rapidement.

Références

[1] Dépôt Github d’addok : https://github.com/etalab/addok

[2] Page Wikipédia anglophone de Redis : https://en.wikipedia.org/wiki/Redis

[3] Page Wikipédia anglophone des n-gram : https://en.wikipedia.org/wiki/N-gram




Articles qui pourraient vous intéresser...

Supervision des architectures à microservices avec Prometheus

Magazine
Marque
Linux Pratique
Numéro
121
Mois de parution
septembre 2020
Domaines
Résumé

Lorsqu’on supervise des services statiques, tel qu’un serveur apache ou un serveur de base de données, on se concentre sur le bon fonctionnement de ces derniers (réponse aux requêtes, état : démarré ou non...) et donc un outil de supervision est nécessaire pour évaluer le statut du service en question. Un outil comme Nagios est destiné à ce type de supervision. Mais si nos services sont susceptibles de disparaître à tout moment et sont remplacés par de nouvelles instances, comment pourra-t-on les superviser ? S’ils ne sont pas déployés sur leurs hôtes d’origine, comment peut-on les localiser dans ce cas ? Et si ces services sont sous forme de conteneurs, comment alors superviser les processus à l’intérieur de ces conteneurs ? Et enfin, si ces services sont déployés dans un orchestrateur à l’instar de Kubernetes, et donc sous forme de pod, comment superviser l’ensemble de ces pods repartis sur différents nœuds ? Dans cet article, nous répondons à toutes ces questions avec des cas pratiques. Mais voici déjà un indice concernant la réponse : Prometheus.

Premiers pas et prérequis

Magazine
Marque
Linux Pratique
HS n°
Numéro
48
Mois de parution
septembre 2020
Domaines
Résumé

Dans ce premier chapitre, nous allons aborder de nombreux sujets, allant du respect des conditions d’utilisation de « Red Hat Enterprise Linux » (RHEL), de l’installation du système, de sa connexion au réseau « Red Hat » jusqu’à la description de notre cas d’étude. Une fois ces prérequis évoqués et ces étapes préliminaires étudiées, nous passerons au vif du sujet en installant Ansible, que nous utiliserons dans le prochain chapitre afin de commencer à mettre en place notre serveur.

Tendance actuelle : la conteneurisation d'applications

Magazine
Marque
GNU/Linux Magazine
HS n°
Numéro
110
Mois de parution
septembre 2020
Domaines
Résumé

Actuellement, il est fréquent de voir des applications proposées sous la forme d'un conteneur. Chaque mise en conteneur – ou conteneurisation – d'une application est particulière et j'ai justement dû récemment me plier à l'exercice : je partage avec vous mon expérience dans cet article.

Utilisez Terraform pour vos projets Docker

Magazine
Marque
GNU/Linux Magazine
Numéro
240
Mois de parution
septembre 2020
Domaines
Résumé

Terraform est un outil populaire pour déployer de l’infrastructure en particulier à destination des Clouds publics. Cependant, il possède de nombreux providers pour dialoguer avec différents hyperviseurs, bases de données ou solutions d’infrastructures en Software Defined. Voyons dans cet article son utilisation avec Docker.

Effectuer des sauvegardes avec rdiff-backup

Magazine
Marque
Linux Pratique
Numéro
121
Mois de parution
septembre 2020
Domaines
Résumé

Tous les jours, nous créons et manipulons des données. Certaines plus importantes que d’autres. Une chose que nous partageons tous c’est bien la peur de les perdre. Peut-être avez-vous déjà perdu des données suite à une panne de votre disque de stockage, l’attaque d’un virus ou le vol de votre ordinateur. Les personnes ayant déjà connu cette situation comprennent les tracas que cela peut causer. Vous allez découvrir dans ce tutoriel comment limiter le risque d’y faire face. La solution se trouve en un mot : « sauvegarde ». L’outil que nous allons vous présenter ici a été conçu pour vous aider à réaliser cette tâche de manière efficace et efficiente.