Programmation dynamique et alignement de séquences

Magazine
Marque
GNU/Linux Magazine
Numéro
212
Mois de parution
février 2018
Spécialité(s)


Résumé

L'alignement de séquences se range dans les problèmes traitant les séquences de caractères comme du texte ou de la voix. Il a pour objectif d'associer, ou non, à chaque caractère d'une séquence, un autre caractère d'une autre séquence. Nous verrons dans cet article différents algorithmes de difficulté croissante et aborderons des applications qui se trouvent en génétique, en recherche d'information ou encore en linguistique comparative.


Body

Depuis les années 70, les besoins en traitement automatique de génome n'ont cessé d'augmenter. Celui-ci étant constitué d'une suite de nucléotides, il a fallu trouver des moyens rapides pour pouvoir reconstituer le génome, et par la suite, comparer deux séquences. L'alignement de séquences est une tâche nécessaire à cet accomplissement.

Avant toute étude, nous définirons plus formellement ce que l'on va étudier : les séquences (partie I) et l'alignement (partie II). Une fois les concepts introduits, nous développerons la programmation dynamique en calculant une distance entre des séquences : la distance de Levenshtein (partie III). Viendront ensuite les méthodes d'alignement global et local. Tout au long de l'article, nous alignerons des séquences d'ADN, mais à la fin, nous aurons un exemple appliqué à la linguistique comparative. Tout notre code sera en Python 3.5.

Les codes de cet article sont disponibles sur : https://github.com/clemsciences/alignement_sequence.

1. Séquence

Posons les bases pour mieux se comprendre. Une séquence est une suite ordonnée d'éléments. Ce qui nous intéressera, ce sont des éléments provenant d'un ensemble fini. Par la suite, nous chercherons à aligner deux séquences χ (khi, à prononcer « qui ») et ψ (psi), de taille respectivement n et m. Le ième caractère de χ est noté χi . On notera aussi la sous-séquence de χ  entre le ième caractère et le jème caractère (inclus) comme χi:j. On aura ainsi χ = χ1:n et ψ = ψ1:m. Nos exemples proviendront de séquences de nucléotides. Le type utilisé sera str.

alphabet = ["a", "c", "g", "t"]

2. Alignement

On reprend nos séquences χ et ψ.

Pour apprécier de manière plus claire l'alignement, on va se doter d'une fonction dont les valeurs seront d'autant plus grandes que les alignements correspondront à nos attentes.

Lorsque deux caractères χi et ψj sont alignés, alors on parle de correspondance C (matching en anglais), si le caractère de la χi et un vide sont alignés, alors on parle d'insertion I (insertion) et, inversement, si un vide et  ψj sont alignés, on parle de suppression S (deletion). Ces mots sont choisis à partir du point de vue de la première séquence (donc c'est totalement arbitraire). Un vide est noté par un tiret -.

Par exemple, on peut choisir le nombre d'alignements parfaits de caractères comme présenté en figure 1. Cette méthode permet simplement de connaître la similitude entre deux séquences. Cela paraît encore bien insuffisant. Une solution plus proche de ce que l'on souhaite est de calculer le score comme le nombre d'alignements corrects pondérés moins le nombre d'alignements incorrects dus à une insertion ou une suppression (voir figure 2). La figure 3 présente un alignement plus correct, car contenant plus de correspondances.

alignement_basique_correspondance_parfaite

Fig. 1 : Cet alignement est parfait : à chaque caractère est associé le même caractère, et pour cause : les séquences sont les mêmes.

alignement_basique_non_intuitif

Fig. 2 :  Il faut bien voir qu'il n'y a pas qu'une seule manière d'aligner des séquences, même pour des séquences de même taille. Ici, les séquences sont les mêmes, mais l'alignement n'est pas parfait, il est même très mauvais puisqu'aucune correspondance n'est parfaite.

alignement_basique_avec_insertions_deletions

Fig. 3 : Alignement mêlant C, I, S.

3. Programmation dynamique et distance de Levenshtein

Formalisée par Richard Bellman, la programmation dynamique a permis l'essor de résolutions optimales pour des problèmes d'ordonnancement ou d'allocations (le terme de programmation est à comprendre au sens de programmation d'évènements et non au sens de codage). L'exemple typique donné dans le papier séminal [1] est celui de l'investissement. On commence avec une somme initiale : comment optimiser les investissements totaux au bout n étapes avec l'investissement d'une partie de la somme et l'épargne du restant ? Nous allons faire de même avec notre score d'alignement.

3.1 Mise en pratique de la programmation dynamique

La programmation dynamique [1] est  une méthode de résolution applicable à des problèmes qui ont une certaine forme. Cette forme est la suivante : la solution optimale d'un problème se déduit de la solution optimale de sous-problèmes du problème en question. Nous allons utiliser cette méthode de résolution pour l'alignement de séquences, mais commençons par un problème plus simple : calculer la distance de Levenshtein. Cette distance consiste à donner le nombre d'opérations (remplacement, insertion, suppression) minimal pour passer d'une séquence à une autre séquence. Mettons en pratique cette méthode : donnons les cas initiaux ainsi que les transitions.

01: def distance_levenshtein(chi, psi, matrice_remplacement, penalite_is, alphabet):

02:     # initialisation

03:     n, m = len(chi), len(psi)

04:     mat_poids = np.zeros((n+1, m+1))

05:     mat_poids[:, 0] = np.array([i for i in range(n+1)])

06:     mat_poids[0, :] = np.array([j for j in range(m+1)])

Le cas initial est quand on n'a encore passé en revue aucune séquence, alors la distance est de zéro (ligne 4). Dans le cas un peu plus complexe où l'on souhaite passer d'une séquence de taille i à une séquence vide, il faut i opérations, d'où la distance i (lignes 5 et 6).

07:     # étape prograde

08:     for i in range(1, n+1):

09:         for j in range(1, m+1):

10:             propositions = np.array([mat_poids[i-1, j-1] +

11:                 matrice_remplacement[alphabet.index(chi[i-1]), alphabet.index(psi[j-1])],

12:                 mat_poids[i-1, j] + penalite_is,

13:                 mat_poids[i, j-1] + penalite_is])

14:             mat_poids[i, j] = np.min(propositions)

Passons aux transitions. On définit le score après avoir calculé la distance de Levenshtein entre la sous-séquence  χ1:i  et la sous-séquence ψ1:j comme étant s[i, j]. On choisit l'opération la moins coûteuse parmi la correspondance-modification, l'insertion et la suppression. Le coût par opération est de 1.

D'où :

  • s[i+1, j+1] ← s[i, j] pour une correspondance ;
  • s[i+1, j+1] ← s[i, j] + 1 pour une modification ;
  • s[i+1, j+1] ← s[i, j+1 +1] pour une insertion ;
  • s[i+1, j+1] ← s[i+1, j] pour une suppression.

Le score final est obtenu lorsque l'on a passé en revue tous les caractères des deux séquences :

15:     return mat_poids[n, m]

3.2 Exemples

On commence avec un exemple simple. On considère le mot « langage » et le mot « langue ». On voit que les 4 premiers caractères sont communs aux deux séquences. En supprimant le deuxième « g » de « langage » et en modifiant son deuxième « a » en « u », on passe de « langage » à « langue ». On voit qu'il n'y a pas d'autres moyens plus simples. On peut conclure que la distance de Levenshtein entre ces deux séquences est de 2. Nous allons utiliser le programme écrit plus haut pour calculer la distance de Levenshtein sur des séquences un peu plus longues.

01: sequence_1, sequence_2 = "aagtagccactag", "ggaagtaagct"

C'est déjà plus difficile à faire de tête. Pour utiliser notre fonction, il faut définir la matrice de coût :

02: matrice_levenshtein = np.ones((len(alphabet_humain), len(alphabet_humain))) + -1*np.eye(len(alphabet_humain))

Cette matrice de coût, nommée matrice_levenshtein, est un tableau à deux dimensions, une matrice, dont les éléments de la diagonale valent 0 et les autres éléments valent 1. Cela modélise le fait que toute modification d'un caractère coûte 1.

03: print(distance_levenshtein(sequence_1, sequence_2, matrice_levenshtein, 1, alphabet_latin))

Le résultat donne 8. Mais comment faire pour savoir quelles modifications ont été faites ?

4. Alignement global

Nous rentrons enfin dans le vif du sujet. Nous allons voir ici un algorithme pour trouver une solution optimale à notre problème (voir [2] pour une explication plus complète).

4.1 L'alignement et l'algorithme de Needleman-Wunsch

L'algorithme de Needleman-Wunsch est le nom donné à l'algorithme de programmation dynamique appliquée à l'alignement global de deux séquences.

Il est une sophistication de l'algorithme de calcul de la distance de Levenshtein. L'alignement de deux séquences peut se décomposer en l'alignement de χi et ψj et l'alignement de χ1:i-1 et ψ1:j-1. C'est une sorte de résolution d'un problème par récurrence à deux indices, il suffit donc d'initialiser la résolution et de donner la transition de (i, j) vers (i+1, j+1), de (i, j+1) vers (i+1, j+1) et (i+1, j) vers (i+1, j+1) .

Nous utiliserons numpy (ligne 1) pour stocker simplement les valeurs dans un tableau, et pour les opérations possibles entre les tableaux (produit terme à terme ou encore retrouver l'indice dont l'élément correspondant est le plus grand, le fameux argmax). L'exemple de l'alignement de nucléotides est utilisé (ligne 2) pour son alphabet simple (seulement 4 éléments) :

01: import numpy as np

02: def aligner_needleman_wunsch(chi, psi, matrice_remplacement, penalite_is):

03:     # initialisation

04:     n, m = len(chi), len(psi)

05:     mat_poids = np.zeros((n+1, m+1))

06:     mat_origine = np.zeros((n+1, m+1))

07:     mat_poids[:, 0] = np.array([-i*penalite_is for i in range(n+1)])

08:     mat_poids[0, :] = np.array([-j*penalite_is for j in range(m+1)])

Nous créons une fonction aligner_needleman_wunsch pour aligner nos séquences khi et psi. Nous utiliserons une matrice de remplacement, qui est le coût de changer un caractère en un autre et une pénalité penalite_is pour toute insertion et suppression.  matrice_remplacement est un ndarray de dimension 2.

Dans les lignes 6 à 9, on initialise le tableau qui accueille tous les scores d'alignement. Si on n'a encore rien aligné, alors le coût est zéro d'où mat_poids[0, 0] = 0. Si on a introduit seulement k caractères d'une séquence, alors on a k*penalite_is puisqu'on a fait k insertions ou k suppressions.

formule_alignement_global

Fig. 4 : Schéma de la transition avant.

D'une manière similaire au calcul de la distance de Levenshtein, la figure 4 montre comment on calcule le score du meilleur alignement.

09:     # étape prograde

10:     for i in range(1, n+1):

11:         for j in range(1, m+1):

12:             propositions = np.array([mat_poids[i-1, j-1] + matrice_remplacement[alphabet.index(chi[i-1]), alphabet.index(psi[j-1])],

                                   mat_poids[i-1, j] - penalite_is,

                                   mat_poids[i, j-1] - penalite_is])

13:             mat_poids[i, j] = np.max(propositions)

14:             mat_origine[i, j] = np.argmax(propositions)

Nous rentrons enfin dans le vif de l'alignement par programmation dynamique. C'est ici que se passe la récursion. On choisit dans les lignes 13, 14 et 15 la transition qui apporte le meilleur score : soit la correspondance du caractère χi (chi[i-1] dans le code) avec ψj  (psi[i-1] dans le code), (on rappelle que les indices commencent à 0 en Python et à 1 dans notre formalisme mathématique), soit l'insertion du caractère χi, soit la suppression avec le caractère ψj . On utilise la variable mat_origine afin de conserver en mémoire le résultat que l'on a choisi afin de construire la solution. Sans ça, il faudrait rechercher le chemin utilisé pour construire la solution. C'est utile dans la partie rétrograde. Cette étape nous fournit déjà un résultat : le score optimal de l'alignement de chi et psi dans mat_poids[n, m].

formule_transition_arrière_alignement_global_tableau

Fig. 5 : Schéma de la transition arrière.

La figure 5 montre comment se construit l'alignement en fonction du résultat de l'étape prograde.

17:    # étape rétrograde

18:    chi_alignement, psi_alignement = [], []

19:    i, j = n, m

20:    while i >=0 and j >= 0:

21:        ori = mat_origine[i, j]
22:            # dans le cas où chi[i] et psi[j] sont alignés

23:        if ori == 0 and i > 0 and j > 0:

24:            i, j = i-1, j-1

25:            chi_alignement.append(chi[i])

26:            psi_alignement.append(psi[j])
27:        # cas où il y a suppression de

28:        elif ori == 1 and i > 0:

29:            i, j = i-1, j

30:            chi_alignement.append(chi[i])

31:            psi_alignement.append("-")
32:        # cas où il y a une insertion

33:        elif ori == 2 and j > 0:

34:            i, j = i, j-1

35:            chi_alignement.append("-")

36:            psi_alignement.append(psi[j])

37:    chi_alignement.reverse()

38:    psi_alignement.reverse()

39:    return chi_alignement, psi_alignement

Nous construisons enfin l'alignement ! Regardons maintenant pas à pas. Pour une itération donnée, on a i et j. On regarde d'où provient le score calculé en (i, j) dans mat_origine et on reconstruit l'alignement dans chi_alignement et psi_alignement. Il faut bien observer que ces deux séquences sont construites à l'envers (voir figure 5). La reconstruction se fait tant que l'on reste avec des indices admissibles.

4.2 Exemple

01: sequence_1, sequence_2 = "aagtagccactag", "aagtaagct"

02: matrice_log_odds = np.array([[5, -1, -1, -1], [-1, 5, -1, -1], [-1, -1, 5, -1], [-1, -1, -1, 5]])

03: d = 0.5

04: ali1, ali2, ali = aligner_needleman_wunsch(sequence_1, sequence_2, matrice_log_odds, d)

05: print(" ".join(ali1), " ".join(ali2), " ".join(ali))

Les paramètres sont la matrice de remplacement (en anglais, on utilise plus souvent le terme de log-odds matrix) et la pénalité d'insertion-délétion. Le premier confère un fort avantage aux alignements de caractères identiques et pénalise plus légèrement les modifications de la même manière. Le second pénalise deux fois moins les insertions et délétions, ce qui signifie qu'il y aura plus tendance à rajouter des vides que d'aligner des mauvaises correspondances.

Résultat :

– – a a g t – a g c c a c t a g

g g a a g t a a g – – – c t – –

S S C C C C S C C I I I C C I I

Cet alignement est optimal selon les critères que l'on a donnés.

5. Alignement local

L'alignement global a tout pour nous plaire : on a deux séquences, et cela trouve le meilleur alignement en prenant en compte tous les caractères. En fait, cette manière de faire est salutaire quand on est sûr de traiter des séquences qui se ressemblent plus ou moins d'un bout à l'autre. Mais est-ce une situation courante ? En génétique, l'usage des alignements est de trouver des gènes qui se ressemblent, donc une suite de nucléotides similaires. Là où l’œil du biologiste est attiré, c'est quand il y a un haut score d'alignement à des endroits bien précis parce que ça signifie que deux gènes se ressemblent vraiment ou alors telle partie est très proche d'une autre. C'est pour cela, entre autres, que l'alignement local de séquences a fait son apparition : il vaut mieux un haut score pour une séquence groupée et un petit score global qu'un score global élevé et pas de haut score localement.

Changeons légèrement de représentation des états.

01: import enum

02: class Etats(enum.IntEnum):

03:     CORRESPONDANCE = 0

04:     INSERTION = 1

05:     SUPPRESSION = 2

La classe Etats donne les états cachés que nous voulons retrouver. Si on les retrouve alors on a un alignement. La définition d'une classe héritant de IntEnum apporte un avantage supplémentaire par rapport à une simple classe avec des attributs de classe : ça montre que c'est un enum, mais c'est aussi un int, donc on sait le comportement que ça doit avoir.

01: def aligner_smith_waterman(chi, psi, matrice_remplacement, penalite_is):

02:     # initialisation

03:     n, m = len(chi), len(psi)

04:     mat_poids = np.zeros((n+1, m+1))

05:     mat_origine = np.zeros((n+1, m+1))

06:     mat_poids[:, 0] = np.array([-i*penalite_is for i in range(n+1)])

07:     mat_poids[0, :] = np.array([-j*penalite_is for j in range(m+1)])

08:     # étape prograde

09:     for i in range(1, n+1):

10:         for j in range(1, m+1):

11:             propositions = np.array([mat_poids[i-1, j-1] +

                                         matrice_remplacement[alphabet.index(chi[i-1]), alphabet.index(psi[j-1])],

                                         mat_poids[i-1, j] - penalite_is,

                                         mat_poids[i, j-1] - penalite_is,

                                         0])

12:             mat_poids[i, j] = np.max(propositions)

13:             mat_origine[i, j] = np.argmax(propositions)

L'initialisation n'est pas modifiée et l'étape prograde ne retient que les poids positifs en ajoutant   dans les propositions (ligne 11). En effet, max(0, x) est toujours positif ou nul, car si x > 0 alors max(0, x) > 0 et si x < 0 alors max(0, x) = 0. Cet ajout sert de commencement à un alignement local parce qu'un alignement local est jugé bon s'il dépasse   pour toutes ses sous-séquences.

14:     # étape rétrograde

15:     chi_alignement = []

16:     psi_alignement = []

17:     alignement = []

18:     i, j = np.unravel_index(mat_poids.argmax(), mat_poids.shape)

19:     while mat_poids[i, j] > 0:

20:         ori = mat_origine[i, j]

21:         if ori == Etats.CORRESPONDANCE and i > 0 and j > 0:

22:             i, j = i-1, j-1

23:             chi_alignement.append(chi[i])

24:             psi_alignement.append(psi[j])

25:             alignement.append("C")

26:         elif ori == Etats.INSERTION and i > 0:

27:             i, j = i-1, j

28:             chi_alignement.append(chi[i])

29:             psi_alignement.append("-")

30:             alignement.append("I")

31:         elif ori == Etats.SUPPRESSION and j > 0:

32:             i, j = i, j-1

33:             alignement.append("S")

34:             chi_alignement.append("-")

35:             psi_alignement.append(psi[j])

36:         else:

37:             break

38:     chi_alignement.reverse()

39:     psi_alignement.reverse()

40:     alignement.reverse()

41:     return chi_alignement, psi_alignement, alignement

Le meilleur alignement local se termine par le meilleur score possible. On cherche donc (ligne 18) le meilleur score dans mat_poids. Le début de l'alignement se trouve avec mat_poids[i_debut, j_debut] == 0 et mat_origine[i_debut, j_debut] == 3.

Prenons deux séquences de nucléotides (elles ont été conçues à la main et ne reflètent donc aucune réalité) :

01: sequence_3 = "aaaaaaaaaatgtcattaaaaaaaa"

02: sequence_4 = "ttttgtactggggggggggg"

03: ali1, ali2, ali = aligner_smith_waterman(sequence_3, sequence_4, matrice_log_odds, d)

04: print(" ".join(ali1), " ".join(ali2), " ".join(ali))

Le résultat :

t g t – c a t

t g t a c – t

C C C S C I C

Seule la partie où il y a suffisamment de correspondances est retenue comme nous le souhaitions.

6. Cas pratique en génétique : l'algorithme BLAST

6.1 Les besoins en génétique

Dans les parties précédentes, nous avons vu de charmantes solutions qui font très bien le boulot, cependant elles sont loin d'être satisfaisantes. Et pour cause, l'usage fait en génétique pour rechercher des gènes proches d'un autre dans une base de données requiert des quantités de calculs inaccessibles avec nos algorithmes. Précisons le propos sur un exemple : l'algorithme de Smith-Waterman nécessite de construire un tableau avec m x n éléments (m et n sont les tailles des deux séquences) et d'y retourner pour construire la solution optimale. Rechercher dans une base contenant des milliards de séquences (https://blast.ncbi.nlm.nih.gov/Blast.cgi) est tout bonnement impossible. Il faudra faire des compromis.

Des séquences de nucléotides similaires le sont rarement par hasard. Elles témoignent de la présence d'un ancêtre commun modifié par des mutations. De plus, l'ADN commandant la création des protéines, une similarité entre séquences implique une similarité (plus ou moins corrélée) dans les fonctions des protéines. C'est cette ressemblance fonctionnelle qui permet de limiter l'analyse de séquences en se restreignant à des familles de séquences.

6.2 Au cœur de BLAST

Les années 90 ont vu naître BLAST (Basic Local Alignment Search Tool), une famille d'outils encore aujourd'hui utilisée, car sans cesse améliorée [3][4]. Son succès est assuré par des heuristiques conçues pour accélérer la recherche de séquences similaires. Le problème auquel nous faisons face en génétique est de retrouver dans une base de séquences (qui est base_seqs) les séquences suffisamment similaires à une séquence donnée (qu'on nomme seq_ent).

La méthode de résolution repose sur trois idées :

  1. seq_ent est découpé en n k-uplets, avec k défini à l'avance et n = len(seq_ent)- k + 1 . Chaque k-uplets se voit associer l'ensemble des k-uplets qui ont un score de similarité supérieur à un seuil avec seq_ent. Ce découpage entraînera une réduction de la taille des motifs dans les séquences de base_seqs. Ces calculs menés sur la seule séquence en entrée, il est plus avantageux de faire les calculs une bonne fois pour toutes que de les faire à chaque comparaison.
  2. L'idée suivante consiste simplement à rechercher des correspondances exactes entre les k-uplets d'une famille homologue. Les alignements exacts sont plus faciles à calculer que de voir s'il y a eu des insertions et suppressions.
  3. Enfin, comme on souhaite trouver les zones à fortes homologies, alors les alignements obtenus avec la seconde idée peuvent être étendus pour voir jusqu'où on peut trouver mieux. Cela se fait caractère par caractère : on ajoute le caractère (directement à droite ou directement à gauche) si le score de similarité  entre le k-uplet concerné de seq_ent et le k-uplet dans une séquence de la base, augmente. On fait ainsi jusqu'à ce que ce score diminue.

Finalement, on obtient des alignements entre seq_ent et les séquences de la base. L'explication donnée est valable dans un cas général, mais nous nous intéressons ici à des séquences de nucléotides et aussi aux séquences de protéines. Nous considèrerons les premières comme étant équivalentes. Aucun nucléotide n'a de raison d'être plus proche de l'un par rapport à un autre Ce constat n'est pas valable pour les protéines pour lesquelles un changement d'acide aminé n'influence en rien la fonction de la protéine ou, au contraire, peut bouleverser la structure d'une protéine.C'est pour cela qu'on utilisera ici une matrice de substitution (les matrices PAM et BLOSUM sont les plus utilisées). Une valeur positive indique qu'un acide aminé a tendance à muter en un autre, alors qu'une valeur négative désigne une confusion rare entre les acides aminés.

L'idée 1 est implémentée ici. Elle ne présente aucune difficulté :

def etape1(seq_ent, k):

    sous_seqs = []

    taille = len(seq_ent)

    for i in range(taille - k + 1):

        sous_seqs.append(seq_ent[i:i+k])

    return sous_seqs

La deuxième idée nécessite quelques éclaircissements : sous_seq est la liste de tous les k-uplets suffisamment proches de la séquence en entrée, quant à la base, elle est la liste des séquences qui nous sert de base de recherche. Pour chaque k-uplet lié à seq_int, on calcule l'ensemble des correspondances avec la base de séquences :

def etape2(sous_seqs, base, k):

    res_alignements = []

    for sous_seq in sous_seqs:

        for i, seq_base in enumerate(base):

            res_alignements.append([])

            for j in range(len(seq_base) - k + 1):

                if sous_seq == seq_base[j:j+k]:

                    res_alignements[i].append(j)

    return res_alignements

La troisième idée ne sera pas implémentée, car elle ne présente pas de défi particulier, outre prendre en compte toutes les conditions d'extension et d'arrêt. Si vous êtes intéressé par cette application, il existe la bibliothèque Biopython qui rend possible un usage clé en main de Blast et de bien d'autres algorithmes. Une présentation claire et précise est disponible [5].

7. Applications en linguistique comparative

La bibliothèque nltk [6] rassemble un ensemble de fonctionnalités nécessaires en TAL (traitement automatique du langage). On pourra y trouver des parseurs en lexème (tokenizer), des racinisateurs, ou, comme plus couramment dit, stemmers, des étiqueteurs morpho-syntaxique (Part of speech tagggers), etc. Tout pour permettre une analyse d'un texte écrit en langue naturelle (d'où le nom anglais du domaine NLP pour Natural Language Processing). Ce qui va nous intéresser ici, c'est la possibilité de charger un corpus qui contient un lexique de mots similaires de langues apparentées. Le corpus Swadesh contient un échantillon qui nous convient. Pour l'installation de nltk et le téléchargement du corpus Swadesh, je laisse la documentation vous aider.

01: # -*-coding:utf-8-*-

02: from nltk.corpus import swadesh

03: import re

04: import numpy as np

05: langues_germaniques = ["en", "de", "nl"]

On sélectionne l'anglais ("en" pour English), l'allemand ("de" pour Deutsch) et le néerlandais ("nl" pour Nederlands). Ces langues sont toutes les trois des langues dites germaniques occidentales. Une proximité géographique et une origine commune expliquent une proximité lexicale. Mais peut-on avoir une idée quantitative de cette proximité ?

06: def normaliser_ger(mot):

07:     if ',' in mot: # supprime les virgules à la fin de certains mots

08:         i = mot.find(',')

09:         mot = mot[:i]

10:     mot = re.sub(r' \([\w ]*\)', '', mot.lower()).replace(' ', '') # supprime les commentaires entre parenthèses

11:     mot = mot.replace('ß', 'ss')

12:     mot = mot.replace('ö', 'oe')

13:     mot = mot.replace('ü', 'ue')

14:     mot = mot.replace('ä', 'ae')

15:     mot = mot.replace('á', 'a')

16:     mot = mot.replace('à', 'a')

17:     mot = mot.replace('ñ', 'n')

18:     mot = mot.replace('í', 'i')

19:     mot = mot.replace('â', 'a')

20:     mot = mot.replace('ê', 'e')

21:     mot = mot.replace('û', 'u')

22:     mot = mot.replace('ó', 'o')

23:     mot = mot.replace('ú', 'u')

24:     return mot # remplace les lettres avec des diacritiques (accents, trémas) ou caractères spéciaux avec la ou les lettres correspondantes dans l'alphabet latin

Pour comparer des mots de langues différentes, il faut au moins une même base orthographique. C'est ce que l'on fait en normalisant chaque mot.

25: def recuperer_vocabulaire(langues, normaliser):

26:    a_aligner = swadesh.entries(langues) # récupération de liste de triplets : un mot en anglais, en allemand et en néerlandais

27:     mots_normalises = [] # on va reformater les données

28:     caracteres = set()  #on va définir l'alphabet utilisé

29:     for i, mots in enumerate(a_aligner):

30:         mots_normalises.append([])

31:         for j in range(len(langues)):

32:             mots_normalises[i].append(list(normaliser(mots[j])))

33:             caracteres.update(mots_normalises[i][j])  

34:     return mots_normalises, list(caracteres)

On cherche à récupérer, préparer et reformater les mots des langues souhaitées.

Le script suivant compare la distance de Levenshtein moyenne entre chacune des langues étudiées. La matrice des Levenshtein donne un coût 0 aux correspondances et un coût 1 aux non-correspondances.

35: def test_linguistique1():

36:    matrice_levenshtein = np.ones((len(alphabet_humain), len(alphabet_humain))) + -1*np.eye(len(alphabet_humain))

37:    mots_germaniques, alph = rd.recuperer_vocabulaire(rd.langues_germaniques, rd.normaliser_ger)

38:     distances = np.zeros((len(mots_germaniques), 3))

39:     for i in range(len(mots_germaniques)):

40:         mot_en, mot_de, mot_nl = mots_germaniques[i]

41:         distances[i, 0] = ad.distance_levenshtein(mot_en, mot_de, matrice_levenshtein, 1, alphabet_humain)

42:         distances[i, 1] = ad.distance_levenshtein(mot_en, mot_nl, matrice_levenshtein, 1, alphabet_humain)

43:        distances[i, 2] = ad.distance_levenshtein(mot_de, mot_nl, matrice_levenshtein, 1, alphabet_humain)

44:     print(np.mean(distances, axis=0))

Le résultat est [ 3.73429952 3.36231884 2.45410628]. On peut donc voir que le lexique anglais et celui du néerlandais sont significativement plus proches l'un de l'autre que le sont les autres entre eux. Ce n'est pas étonnant puisque ces deux langues-là sont dans un sous-groupe qui exclut l'allemand. Il est néanmoins important de noter que les résultats ne portent que sur l'orthographe des mots et non sur leur prononciation. De plus, le lexique utilisé n'est aucunement censé représenter les langues étudiées. On a au mieux un échantillon assez divers concernant la nature des mots (noms, verbes, pronoms, adjectifs, etc.). Pour mieux aborder la question, lire [7][8].

Conclusion

Nous avons étudié le formalisme de traitement de séquences, ainsi que celui de l'alignement. La programmation dynamique a été introduite afin de comprendre son mécanisme, et ce, à travers la distance de Levenshtein. Les alignements globaux et locaux ont dévoilé leurs secrets élémentaires. Finalement, deux exemples concrets ont été présentés avec leur lot de simplification d'un côté et de sophistication de l'autre.

Références

[1] BELLMAN R., « The theory of dynamic programming », RAND CORP SANTA MONICA CA, 1954.

[2] DURBIN R. « Biological sequence analysis, Probabilistic models of proteins and nucleic acids », Cambridge University Press, 1998

[3] ALTSCHUL S. F. et al., « Basic Local Alignment Search Tool », Journal of molecular biology, vol. 215, no 3, 1990, p. 403 à 410.

[4] ALTSCHUL S. F. et al., « Gapped BLAST and PSI-BLAST: a new generation of protein datanase search programs», Nucleic acids research, vol. 25, no 17, 1997, p. 3389 à 3402.

[5] DAMERON O. et FARRANT G., « La bioinformatique avec Biopython », GNU/Linux Magazine HS n°73, mai 2014, p. 84 à 97, https://connect.ed-diamond.com/GNU-Linux-Magazine/GLMFHS-073/La-bioinformatique-avec-Biopython.

[6]  BIRD S., LOPER E. et KLEIN, « Natural Language Processing with Python » O’Reilly Media Inc, 2009 : http://www.nltk.org/api/nltk.html, installation de nltk : http://www.nltk.org/install.html, téléchargement de corpus : http://www.nltk.org/data.html.

[7] KONDRAK G., « A new algorithm for the alignment of phonetic sequences », Proceedings of the 1st North American chapter of the Association for Computational Linguistics conference, 2000, p. 288 à 295.

[8] NERBONNE J., HEERINGA W., VAN DEN HOUT E. et al., « Phonetic distance between Dutch dialects », CLIN VI: Proceedings of the sixth CLIN meeting, 1996, p. 185 à 202.

Pour aller plus loin

Les algorithmes présentés ici ne sont pas facilement adaptables aux données puisque les paramètres sont choisis à la main. C'est pour cela que des modèles probabilistes ont été introduits pour répondre à des besoins spécifiques. Les Pair Hidden Markov models en sont un bon exemple. Les alignements multiples sont aussi une extension utile avec les Profile Hidden Markov Model.

Une fois les séquences alignées, on peut se demander comment elles sont liées. La réponse est bien souvent que ces séquences ont évolué à partir d'une même séquence-ancêtre. La reconstruction des étapes de ces évolutions utilise le plus souvent des arbres.



Article rédigé par

Les derniers articles Premiums

Les derniers articles Premium

La place de l’Intelligence Artificielle dans les entreprises

Magazine
Marque
Contenu Premium
Spécialité(s)
Résumé

L’intelligence artificielle est en train de redéfinir le paysage professionnel. De l’automatisation des tâches répétitives à la cybersécurité, en passant par l’analyse des données, l’IA s’immisce dans tous les aspects de l’entreprise moderne. Toutefois, cette révolution technologique soulève des questions éthiques et sociétales, notamment sur l’avenir des emplois. Cet article se penche sur l’évolution de l’IA, ses applications variées, et les enjeux qu’elle engendre dans le monde du travail.

Petit guide d’outils open source pour le télétravail

Magazine
Marque
Contenu Premium
Spécialité(s)
Résumé

Ah le Covid ! Si en cette période de nombreux cas resurgissent, ce n’est rien comparé aux vagues que nous avons connues en 2020 et 2021. Ce fléau a contraint une large partie de la population à faire ce que tout le monde connaît sous le nom de télétravail. Nous avons dû changer nos habitudes et avons dû apprendre à utiliser de nombreux outils collaboratifs, de visioconférence, etc., dont tout le monde n’était pas habitué. Dans cet article, nous passons en revue quelques outils open source utiles pour le travail à la maison. En effet, pour les adeptes du costume en haut et du pyjama en bas, la communauté open source s’est démenée pour proposer des alternatives aux outils propriétaires et payants.

Sécurisez vos applications web : comment Symfony vous protège des menaces courantes

Magazine
Marque
Contenu Premium
Spécialité(s)
Résumé

Les frameworks tels que Symfony ont bouleversé le développement web en apportant une structure solide et des outils performants. Malgré ces qualités, nous pouvons découvrir d’innombrables vulnérabilités. Cet article met le doigt sur les failles de sécurité les plus fréquentes qui affectent même les environnements les plus robustes. De l’injection de requêtes à distance à l’exécution de scripts malveillants, découvrez comment ces failles peuvent mettre en péril vos applications et, surtout, comment vous en prémunir.

Bash des temps modernes

Magazine
Marque
Contenu Premium
Spécialité(s)
Résumé

Les scripts Shell, et Bash spécifiquement, demeurent un standard, de facto, de notre industrie. Ils forment un composant primordial de toute distribution Linux, mais c’est aussi un outil de prédilection pour implémenter de nombreuses tâches d’automatisation, en particulier dans le « Cloud », par eux-mêmes ou conjointement à des solutions telles que Ansible. Pour toutes ces raisons et bien d’autres encore, savoir les concevoir de manière robuste et idempotente est crucial.

Les listes de lecture

9 article(s) - ajoutée le 01/07/2020
Vous désirez apprendre le langage Python, mais ne savez pas trop par où commencer ? Cette liste de lecture vous permettra de faire vos premiers pas en découvrant l'écosystème de Python et en écrivant de petits scripts.
11 article(s) - ajoutée le 01/07/2020
La base de tout programme effectuant une tâche un tant soit peu complexe est un algorithme, une méthode permettant de manipuler des données pour obtenir un résultat attendu. Dans cette liste, vous pourrez découvrir quelques spécimens d'algorithmes.
10 article(s) - ajoutée le 01/07/2020
À quoi bon se targuer de posséder des pétaoctets de données si l'on est incapable d'analyser ces dernières ? Cette liste vous aidera à "faire parler" vos données.
Voir les 65 listes de lecture

Abonnez-vous maintenant

et profitez de tous les contenus en illimité

Je découvre les offres

Déjà abonné ? Connectez-vous