Installation d’un moteur de recherche pour du géocodage

Magazine
Marque
GNU/Linux Magazine
Numéro
189
Mois de parution
janvier 2016
Spécialité(s)


Résumé
Le géocodage c’est associer des coordonnées géographiques à une adresse. Cela permet de savoir avec précision où se situe l’adresse. Il faut donc avoir les adresses et un moyen de chercher dans cette énorme base de données.

Body


Dans ce court article, nous allons voir comment installer addok, un moteur de recherche d’adresses. Nous verrons ensuite où trouver les données et comment les mettre dans ce moteur de recherche. Il n’y aura ensuite plus qu’à lancer le service Web pour répondre aux requêtes.

1. Installation d’Addok

Il y a plus de 20 millions d’adresses dans la BANO, donc pour avoir des performances acceptables l’auteur a choisi d’utiliser Redis [2] qui est une base NoSQL qui stocke ses données en RAM. Cela implique que :

1. c’est rapide ;

2. ça consomme beaucoup de RAM.

Le reste du logiciel est développé en Python3 (le futur est arrivé \o/). Nous allons donc travailler dans un virtualenv.

On va installer les logiciels sur notre ubuntu 14.04 :

$ sudo apt-get install redis-server python3.4 python3.4-dev python-pip python-virtualenv virtualenvwrapper

On va se créer un dossier dans lequel on va faire notre tambouille :

$ mkdir ~/ban && cd ~/ban

On crée ensuite notre virtualenv qui va accueillir addok :

$ virtualenv addok --python=/usr/bin/python3.4

On active le virtualenv puis on installe addok :

$ source addok/bin/activate

$ pip install addok

Maintenant, addok devrait être installé.

2. Téléchargement des données

On va donc télécharger les données de la BANO. Je vous laisse choisir quelles données vous souhaitez avoir dans votre moteur de recherche, mais faites attention, plus on met de données, plus Redis va consommer de la mémoire vive. Pour toute la France, Redis a besoin de plus de 20 Gio de RAM.

Pour télécharger les données du département 14, on utilise la commande suivante :

$ wget http://bano.openstreetmap.fr/data/bano-14.json.gz

Notez que si vous voulez télécharger plusieurs départements, vous n’êtes pas obligé de taper plusieurs fois la commande, vous pouvez mettre les numéros entre accolades séparés par des virgules. Par exemple, pour télécharger les données de la Basse-Normandie, soit les départements 14, 50, et 61, on peut le faire comme ça :

$ wget http://bano.openstreetmap.fr/data/bano-{14,50,61}.json.gz

On décompresse le(s) fichier(s) téléchargé(s) et on met tout dans un fichier qu’on va importer :

$ gzip -d *gz

$ cat *json > data.json

2.1 Code INSEE

Il se peut que vous ayez besoin des codes INSEE des communes. Pour cela, il suffit de rajouter un fichier de configuration qu’on va appeler local.py. Dedans il suffit de mettre :

EXTRA_FIELDS = [

            {'key': 'citycode'},

            ]

FILTERS = ["type", "postcode", "citycode"]

Addok appelle le code INSEE « citycode » (c’est ce que vous devrez chercher dans le JSON contenant les réponses). Ensuite, on indique ce fichier à addok avec :

$ export ADDOK_CONFIG_MODULE=chemin/vers/le/fichier/local.py

Donc si local.py est dans le répertoire courant, il suffit de faire :

$ export ADDOK_CONFIG_MODULE=local.py

Lorsque vous lancerez les deux commandes suivantes, vous devriez avoir le message qui vous indique qu’il l’a bien pris en compte :

Loaded local config from local.py

3. Import des données

On va pouvoir importer les données maintenant que tout est en place :

$ addok batch data.json

Cela va mettre un petit moment, plus ou moins long suivant la quantité de données que vous lui faites ingérer. Vous allez aussi voir la quantité de RAM utilisée exploser. Pire que quand on lance du Java... enfin presque.

Pour les départements du 14, 50 et 61, la vm ubuntu qui me sert à vérifier l’intégralité des commandes que je donne consomme 994Mio de RAM.

Maintenant que les données sont dans Redis, on va calculer les n-gram [3]. Un n-gram est une partie de n éléments d’une suite de mots. Pour faire simple, c’est l’autocomplétion, c’est-à-dire que quand on lui donne « infant » il va nous proposer les adresses ayant le mot « infanterie ». Cette étape va prendre un peu de temps. :

$ addok ngrams

4. Lancement du service Web

On va lancer gunicorn qui va gérer les requêtes. Par défaut il écoute sur localhost ce qui n’est pas très pratique pour un serveur ; on surcharge donc cette adresse. Par défaut il écoute sur le port 8000 :

$ gunicorn addok.server:app --bind 0.0.0.0

On teste avec un navigateur en allant sur http://adresse-ip:8000/search/?q=Ville en remplaçant Ville par une ville présente dans les données que vous lui avez fournies. Dans mon cas, http://adresse-ip:8000/search/?q=Caen renvoie un fichier json avec toutes les informations qu’il trouve liées au mot Caen.

Maintenant, pour lancer gunicorn, le plus simple est d’écrire un script d’init pour que systemd (ou un autre init si vous êtes réticent au progrès :)) le lance au démarrage.

Conclusion

On vient donc d’installer un moteur permettant d’effectuer des recherches dans toutes les adresses que l’on souhaite, et ce très rapidement.

Références

[1] Dépôt Github d’addok : https://github.com/etalab/addok

[2] Page Wikipédia anglophone de Redis : https://en.wikipedia.org/wiki/Redis

[3] Page Wikipédia anglophone des n-gram : https://en.wikipedia.org/wiki/N-gram




Article rédigé par

Par le(s) même(s) auteur(s)

Le nouveau système de queueing de Packet Filter

Magazine
Marque
GNU/Linux Magazine
HS n°
Numéro
74
Mois de parution
septembre 2014
Spécialité(s)
Résumé

Si vous avez déjà joué avec un BSD, vous devez certainement connaître (et apprécier) Packet Filter (PF), le firewall développé sur OpenBSD. Si ce n'est pas le cas, on a déjà sûrement dû vous en vanter la syntaxe claire par rapport à celle incompréhensible d'iptables (certes, au bout de la 15ème fois qu'on utilise une commande, on commence à se rappeler à quoi sert l'obscure option -machin). Mais quid du queueing avec PF ?

Les derniers articles Premiums

Les derniers articles Premium

La place de l’Intelligence Artificielle dans les entreprises

Magazine
Marque
Contenu Premium
Spécialité(s)
Résumé

L’intelligence artificielle est en train de redéfinir le paysage professionnel. De l’automatisation des tâches répétitives à la cybersécurité, en passant par l’analyse des données, l’IA s’immisce dans tous les aspects de l’entreprise moderne. Toutefois, cette révolution technologique soulève des questions éthiques et sociétales, notamment sur l’avenir des emplois. Cet article se penche sur l’évolution de l’IA, ses applications variées, et les enjeux qu’elle engendre dans le monde du travail.

Petit guide d’outils open source pour le télétravail

Magazine
Marque
Contenu Premium
Spécialité(s)
Résumé

Ah le Covid ! Si en cette période de nombreux cas resurgissent, ce n’est rien comparé aux vagues que nous avons connues en 2020 et 2021. Ce fléau a contraint une large partie de la population à faire ce que tout le monde connaît sous le nom de télétravail. Nous avons dû changer nos habitudes et avons dû apprendre à utiliser de nombreux outils collaboratifs, de visioconférence, etc., dont tout le monde n’était pas habitué. Dans cet article, nous passons en revue quelques outils open source utiles pour le travail à la maison. En effet, pour les adeptes du costume en haut et du pyjama en bas, la communauté open source s’est démenée pour proposer des alternatives aux outils propriétaires et payants.

Sécurisez vos applications web : comment Symfony vous protège des menaces courantes

Magazine
Marque
Contenu Premium
Spécialité(s)
Résumé

Les frameworks tels que Symfony ont bouleversé le développement web en apportant une structure solide et des outils performants. Malgré ces qualités, nous pouvons découvrir d’innombrables vulnérabilités. Cet article met le doigt sur les failles de sécurité les plus fréquentes qui affectent même les environnements les plus robustes. De l’injection de requêtes à distance à l’exécution de scripts malveillants, découvrez comment ces failles peuvent mettre en péril vos applications et, surtout, comment vous en prémunir.

Bash des temps modernes

Magazine
Marque
Contenu Premium
Spécialité(s)
Résumé

Les scripts Shell, et Bash spécifiquement, demeurent un standard, de facto, de notre industrie. Ils forment un composant primordial de toute distribution Linux, mais c’est aussi un outil de prédilection pour implémenter de nombreuses tâches d’automatisation, en particulier dans le « Cloud », par eux-mêmes ou conjointement à des solutions telles que Ansible. Pour toutes ces raisons et bien d’autres encore, savoir les concevoir de manière robuste et idempotente est crucial.

Les listes de lecture

9 article(s) - ajoutée le 01/07/2020
Vous désirez apprendre le langage Python, mais ne savez pas trop par où commencer ? Cette liste de lecture vous permettra de faire vos premiers pas en découvrant l'écosystème de Python et en écrivant de petits scripts.
11 article(s) - ajoutée le 01/07/2020
La base de tout programme effectuant une tâche un tant soit peu complexe est un algorithme, une méthode permettant de manipuler des données pour obtenir un résultat attendu. Dans cette liste, vous pourrez découvrir quelques spécimens d'algorithmes.
10 article(s) - ajoutée le 01/07/2020
À quoi bon se targuer de posséder des pétaoctets de données si l'on est incapable d'analyser ces dernières ? Cette liste vous aidera à "faire parler" vos données.
Voir les 125 listes de lecture

Abonnez-vous maintenant

et profitez de tous les contenus en illimité

Je découvre les offres

Déjà abonné ? Connectez-vous