Parler à un RADAR spatioporté : traitement et analyse des données de Sentinel-1

Magazine
Marque
GNU/Linux Magazine
Numéro
246
Mois de parution
mars 2021
Spécialité(s)


Résumé

Nous avions étudié comment fonctionne un RADAR pour la mesure de distance, puis d’azimut et finalement interférométrique, lors d’un déploiement depuis le sol. Nous allons appliquer ces connaissances aux données acquises par les RADAR transportés par les satellites de l’ESA Sentinel-1, librement disponibles sur le Web. Nous conclurons en installant au sol une cible coopérative qui sera parfaitement visible depuis l’espace.


Body

Les RADAR sont des outils de télémesure exceptionnellement performants : contrairement aux observations optiques, ces méthodes actives de mesure ne sont pas dépendantes de l’illumination de la scène ni du couvert nuageux, puisque les ondes électromagnétiques radiofréquences traversent les nuages, permettant une observation, quelles que soient les conditions météorologiques. Il s’agit d’outils indispensables aux observations à long terme des impacts naturels et artificiels sur l’environnement ou la gestion de crises tel que promu par les Nations Unies [1], justifiant de diffuser la connaissance du traitement de ces signaux et de mettre en commun nos techniques d’analyse les plus efficaces. Nous avions pris rendez-vous à l’issue de [2] pour étendre nos connaissances acquises sur un RADAR à ouverture synthétique au sol (GB-SAR) vers les RADAR spatioportés : la promesse sera tenue avec le présent document.

fig1 3

Fig. 1 : Illustration des modes de mesure de Sentinel-1 en fonction de la nature du terrain observé (mer ou terre) et de la résolution recherchée. Nous nous intéresserons aux acquisitions SLC en mode IW pour avoir accès aux données complexes et donc la phase. Noter comment l’illumination du faisceau RADAR se fait de façon oblique latérale, avec les conséquences que nous verrons lors du déploiement d’une cible coopérative. Illustration extraite de [3].

Cependant, l’analyse des signaux bruts {I, Q} issus de ces mesures n’est pas complètement triviale, comme le serait l’analyse d’une image multispectrale dont on se contente de combiner les bandes spectrales pour identifier la nature de la cible réfléchissant la lumière du soleil. L’accès aux données acquises par les anciennes plateformes spatioportées [4] transportant des RADAR (ERS européen [5], RADARSAT canadien, TERRA-SAR et TanDEM-X allemands) nécessitait l’acceptation d’un programme scientifique ou technique d’analyse, qui ne pouvait donc être déposé que par des laboratoires ou instituts entraînés à traiter ce type de données, garantissant que des individus en dehors de ces agences ne solliciteraient pas les jeux de données. La politique de dissémination des données RADAR a changé en 2010, lorsque l’agence spatiale européenne ESA a décidé de libérer ces informations en les distribuant sur son site Copernicus sur http://scihub.copernicus.eu/dhus/. Ainsi, [3, p. 67] nous informe que depuis 2011, « Sentinel Data Policy: [...] anyone can access acquired Sentinel data; in particular, no distinction is made between public, commercial and scientific uses, or between European or non-European users […]. It is expected that this open and free access to the data (for any purpose, within or outside Europe), will maximise the beneficial use of data for the widest range of applications. It will strengthen EO markets in Europe, in particular the downstream sector, with a view to promoting growth and job creation. ».

Il devient maintenant possible d’accéder aux données brutes acquises par les plateformes européennes, et en particulier les actuels Sentinel-1A et B (figure 1) [3]. Ces deux satellites en orbite polaire basse, à une altitude d’environ 700 km, couvrent l’intégralité de la surface de la Terre, avec un passage sur un même site tous les 12 jours. Ainsi, les données acquises depuis 2014 sont accessibles gratuitement, permettant autant une analyse historique que contemporaine de l’évolution de la topographie, sous réserve de savoir analyser les mesures, ce qui est le sujet de ce document.

Enregistrement auprès de Copernicus

Il peut sembler surprenant de promouvoir l’accès à des données qui nécessitent de s’enregistrer et donc de divulguer son identité pour y accéder. Nous avons testé l’enregistrement avec un email anonyme généré par guerrillamail.com depuis un client Tor ainsi que le téléchargement depuis Tor et une séquence totalement anonyme de téléchargement a été validée. Aucune vérification sur la nature de l’adresse mail n’est faite lors de l’enregistrement, dont la réponse automatique est quasiment instantanée.

v-fig2 6

Après avoir rappelé les bases de l’analyse du RADAR à antenne synthétique (SAR), et les particularités des plateformes spatioportées, nous allons considérer trois cas d’étude qui incluent la localisation de l’auteur à Besançon, où les mouvements de terrain ne sont pas d’un grand intérêt ; une zone sismique et une zone d’exploitation minière en latitude tempérée couverte par le modèle numérique de terrain acquis par la navette spatiale lors de la Shuttle Radar Topography Mission (SRTM) en 2000 ; et finalement, une région arctique aux latitudes trop au nord pour avoir été couverte par SRTM, qui s’est limitée aux latitudes comprises entre 60° (contraintes orbitales du lancement de la navette spatiale), imposant l’utilisation d’un modèle numérique de terrain dédié.

1. Principes de base d’InSAR dans le cas des RADAR spatioportés

Nous avons présenté les généralités sur le traitement SAR [6, 7 8] et la mesure interférométrique résultante (InSAR) [2] auparavant. Pour reprendre rapidement, la distance est mesurée par compression d’impulsion (corrélation) dans la direction de visée avec une résolution inverse à la bande passante B, tandis que la résolution azimutale est obtenue par compression le long de la direction de déplacement de l’antenne synthétique – dans le cas du satellite, le long de son orbite. Nous avions vu que ces deux transformées de Fourier impliquent une période d’échantillonnage constante, tant dans le temps (compression en distance) que dans l’espace (compression en azimut). Nous apprenons sur les divers sites décrivant Sentinel [9] qu’il s’agit d’émetteurs radiofréquences en bande C centrés sur 5,405 GHz et occupant environ 100 MHz de bande passante. Tout comme les sonars sous-marins (side-scan sonar [10]), un RADAR spatioporté ne vise pas à sa verticale, mais avec un angle sur le côté afin de profiter des différents décalages Doppler pour permettre la compression d’impulsion : dans le cas de Sentinel, cet angle est d’environ 30 à 40° dans le mode de mesure nommé Interferometric Wide (IW) Swath tel que décrit sur https://sentinel.esa.int/web/sentinel/technical-guides/sentinel-1-sar/products-algorithms/level-1/single-look-complex/interferometric-wide-swath. Le traitement préliminaire de compression des impulsions en distance et en azimut a déjà été effectué dans les produits de niveau 1, tel que nous explique https://sentinel.esa.int/web/sentinel/missions/sentinel-1/data-products avec « Level-1 Single Look Complex (SLC) products consist of focused SAR data geo-referenced using orbit and attitude data from the satellite and provided in zero-Doppler slant-range geometry ». Ces données sont donc prêtes pour les traitements ultérieurs de mesure de réflectivité [11], cohérence [12] et phase [13] (InSAR) puisque les grandeurs résultantes restent complexes (I+jQ). La taille d’un pixel est de l’ordre de 5 par 20 m : inutile donc d’imaginer viser son jardin avec ce type de mesure, la surface analysée couvre une centaine de m2. Par contre, la résolution en mesure de déplacement est excellente (figure 3) : avec une longueur d’onde de 300/5400=5,6 cm, la phase présente une rotation de aller-retour tous les 2,8 cm au-delà de laquelle une incertitude subsiste sur le nombre de déplacements multiples de cette valeur, mais un déplacement de quelques millimètres à grande échelle est aisément détectable. On notera, et ce sera la première étape du traitement des données, que la position du satellite dans l’espace doit être connue à l’instant de la mesure à mieux que la résolution recherchée, une prouesse de l’observation des trajectoires de satellites et l’identification de leurs paramètres orbitaux qui permet aussi l’analyse centimétrique de signaux GPS a posteriori : cela explique qu’il faille attendre une vingtaine de jours entre l’acquisition des données et la possibilité de les traiter.

fig3 3

Fig. 2 : Principes de base de l’interférométrie par RADAR aéroporté à ouverture synthétique monostatique.

L’orbite polaire des deux satellites est conçue pour repasser « exactement » sur la même zone tous les 12 jours. Une analyse des passages au-dessus de la France indique que les Sentinel-1 passent en moyenne tous les 3 ou 4 jours : cependant, seuls les passages correspondant à une même orientation de l’orbite peuvent être traités en mode interférométrique. Cette information est obtenue dans le nom de fichier après la date d’acquisition : si nous considérons les passages de Sentinel-1A au-dessus de Besançon en novembre 2020, nous obtenons les données de la figure 3. Laurent Ferro-Famil (IETR, Rennes) nous informe que le traitement d’InSAR différentiel peut s’effectuer entre Sentinel-1A et Sentinel-1B, réduisant la période de répétition à 6 jours – nous n’avons pas ici expérimenté avec une telle approche.

v-fig4 6

Fig. 3 : Passages de Sentinel-1A au-dessus de Besançon en novembre 2020.

Donc, nous pourrions croire, en l’absence du code couleur, que l’analyse est possible tous les 3-4 jours environ selon la nomenclature décrite sur https://sentinel.esa.int/web/sentinel/technical-guides/sentinel-1-sar/products-algorithms/level-1-product-formatting. Il faut prendre garde au numéro d’orbite qui suit la date (rouge) : seules les séquences commençant par 05513x (orange), 17320x (bleu) ou 17240x (vert) peuvent être comparées. Leur répétition est bien de 12 jours. De même, il n’est pas possible selon la séquence ici de mélanger des données de Sentinel-1A et B dans une analyse interférométrique. Les dates de passage de Sentinel sont prédites et affichées dans Google Earth avec les cartes disponibles sur https://sentinels.copernicus.eu/web/sentinel/missions/sentinel-1/observation-scenario/acquisition-segments.

2. Chaîne de traitement Sentinel

Sentinel fournit une multitude de services, mais celui qui couvre continuellement toute la Terre est SLC (Single Look Complex) dans le mode IW (Interferometric Wide) : dans ce mode, nous obtenons les cartes des coefficients {I, Q} desquelles nous pourrons déduire les interférogrammes suivant la documentation proposée par Sentinel-1 Toolbox – TOPS Interferometry Tutorial (janv. 2020) sur http://step.esa.int/docs/tutorials/S1TBX%20TOPSAR%20Interferometry%20with%20Sentinel-1%20Tutorial_v2.pdf. On pourrait s’interroger de l’intérêt d’écrire un article sur le sujet si cette excellente documentation est déjà disponible :

  1. nous allons diverger quelque peu de la séquence proposée pour exploiter pleinement les fonctionnalités de Makefile sur lequel les auteurs du logiciel de traitement ne se sont pas appuyés et ;
  2. la mise en œuvre des étapes de traitement ne s’est pas faite sans mal, compte tenu des messages d’erreurs laconiques et incohérents fournis par la machine virtuelle Java.

En effet, le logiciel proposé par l’ESA pour traiter les données de Sentinel, SNAP pour SeNtinel Application Platform (figure 4), se télécharge sur http://step.esa.int/main/download/snap-download/ en version binaire ou par ses sources sur https://github.com/senbox-org. Pour une fois, on s’autorisera l’exploitation des paquets binaires, la compilation manuelle semblant relativement pénible. Nous utiliserons la version 8.0.0 qui semble avoir résolu un certain nombre d’écueils sur la gestion de la mémoire, tout en restant relativement capricieuse.

v-fig5 7

Fig. 4 : L’interface graphique de SNAP, le logiciel de traitement fourni par l’ESA pour traiter les données de Sentinel. Comme toute interface graphique, le logiciel est lent et sans logique, mais permet au moins d’atteindre rapidement un premier résultat.

2.1 Premiers pas

Avant de nous lancer dans la mesure interférométrique, assurons-nous déjà que nous sommes capables d’acquérir un jeu de données pertinent pour une région donnée, d’en extraire les informations utiles, et de les projeter sur une carte. Pour ce faire, nous nous intéresserons à Besançon, sans intérêt autre que de permettre une vérification sur le terrain des informations fournies par le RADAR. Nous suivons pour cela le tutoriel proposé sur [14] qui permet de prendre en main l’interface graphique du logiciel SNAP (figure 4), sans rencontrer de problème majeur autre que des erreurs aléatoires de la machine virtuelle Java dans laquelle s’exécute ce logiciel. L’incapacité à conclure de façon reproductible une séquence de traitement nous a encouragés à passer en ligne de commande pour éviter les opérations répétitives de l’interface graphique, libérer les ressources associées à l’affichage des résultats intermédiaires, et de façon générale réduire la perte de temps liée à la manipulation de la souris (section 3.2).

Malgré les erreurs aléatoires de dépassement du tas de mémoire (heap) de la machine virtuelle, que nous verrons être au moins en partie dues à la définition des zones sans-valeurs des modèles numériques de terrain utilisés, nous obtenons des résultats intermédiaires cohérents lorsque les champs (I, Q) ne sont pas tous nuls (figure 5), pour conclure le traitement avec des cartes de réflectivité (figure 6) cohérentes avec le contexte géographique. On note dès à présent que SNAP ne conserve que les coefficients I et Q issus de chaque traitement (et éventuellement le coefficient de corrélation lors du traitement interférométrique), mais que les grandeurs dérivées que sont la phase et le module, qui sont calculées au vol, doivent être explicitement mentionnées lors des dernières étapes de traitement pour se conclure par une carte de ces grandeurs.

v-fig6 6

Fig. 5 : Haut : Sélection du burst et des bandes au sein de ce burst couvrant la zone d’intérêt. Nous n’avons pas trouvé de solution autre que graphique pour fournir ces paramètres, et ce, malgré l’interface réduisant la zone observable au strict minimum, laissant libre cours à l’imagination pour trouver la cible recherchée. Bas : solution du traitement présentant la boucle du Doubs entourant Besançon avant les étapes de deburst et de correction géométrique.

La figure 6 présente clairement un fort réflecteur d’opportunité qu’est un bâtiment d’architecture moderne présentant de nombreux murs plans, métalliques et agencés à angle droit.

v-fig7 9

Fig. 6 : Produit final (haut) issu du traitement d’une unique image, en projection géoréférencée UTM33N. Un réflecteur puissant d’opportunité est visible à l’ouest de la boucle du Doubs, identifié comme le Centre de Linguistique Appliquée (CLA, bas).

Le résultat du traitement est converti en format GeoTIFF compréhensible par QGIS par gdal_translate -of GTiff xxx_split_Orb_deb_TC.data/Intensity_IW3_VV.img TC_intensity.tif bien que Simon Gascoin (CESBIO, Toulouse) nous informe que QGIS sait lire les images au format .img issues de SNAP.

v-fig8 5

Fig. 7 : Insertion de l’image géoréféncée – GeoTIFF ou .img – issue du traitement par SNAP des données acquises par Sentinel-1A. En haut, une carte à grande échelle indiquant que les réflecteurs les plus puissants (en bleu) se situent sur les flancs ouest des collines, et mettant en évidence un réflecteur d’opportunité puissant à l’ouest de la boucle. En bas : un zoom sur ce réflecteur d’opportunité l’identifie comme le bâtiment d’architecture « moderne » du CLA avec ses façades planes à angle droit.

On pourrait se demander où est passé le satellite et quand, information primordiale si un événement bref doit être observé (par exemple, sortir un catadioptre au moment de son passage, voir la fin de ce document). Diverses sources d’informations sont disponibles pour prédire les passages de Sentinel-1 et ses paramètres de prise de vue. A posteriori, les fichiers .dim issus du traitement de SNAP contiennent ces informations. Par exemple, S1A_IW_SLC__1SDV_20200821T173205_20200821T173232_034008_03F26D_1274_split_Orb_deb.dim nous indique que :

<PRODUCT_SCENE_RASTER_START_TIME>21-AUG-2020 17:32:10.661383</PRODUCT_SCENE_RASTER_START_TIME>
<PRODUCT_SCENE_RASTER_STOP_TIME>21-AUG-2020 17:32:19.288552</PRODUCT_SCENE_RASTER_STOP_TIME>

La prise de vue était le 21 août à 17 h 32 (ces 9 secondes d’acquisition prennent plus de 4 h de traitement !). Connaissant la date et l’horaire de passage, nous pourrons demander à Heavens Above les paramètres du passage vu depuis le site de réception. Ce point sera détaillé plus tard (section 3).

2.2 Chaîne de traitement Sentinel par Makefile

Afin de limiter les risques d’erreurs lors d’opérations manuelles répétitives, voir d’automatiser la chaîne de traitement, les étapes documentées dans [14] sont automatisées :

  1. parmi les mesures multiples acquises par Sentinel lors de son passage, ne conserver que les segments contenant la zone à observer : split ;
  2. appliquer les observations orbitales pour positionner avec précision le satellite dans l’espace et ainsi identifier finement le temps de vol de l’onde électromagnétique, en connaissant la position de l’émetteur et du récepteur : orbit ;
  3. fusionner les impulsions successives et éliminer les artefacts induits : deburst ;
  4. projection dans le référentiel géographique, en choisissant la bonne zone UTM pour une projection plane adéquate, et correction des effets topographiques sur le positionnement des points de mesure : terrain correction ;
  5. traduction en un format GeoTIFF lisible par QGIS.

Toutes ces opérations sont relativement bien documentées dans les tutoriels de l’ESA [14] et nous n’avons aucun intérêt à les reproduire ici. Le traitement manuel de ces opérations est rapidement long et fastidieux, surtout lorsque les temps de calcul sont de plusieurs minutes ou dizaines de minutes, interdisant de vaquer à d’autres occupations entre deux étapes. SNAP propose bien un mode de séquencement des tâches sous forme de graphique, mais tout utilisateur UNIX verra immédiatement la logique de passer par make lorsqu’une étape de traitement dépend du résultat des étapes précédentes. SNAP propose en effet en ligne de commande toutes les étapes de traitement mises en œuvre par l’interface graphique sous forme de l’instruction gpt [15]. Le nom du produit généré par chaque étape de traitement est imposé par l’option -t qui permet donc, quel que soit le nom du fichier d’entrée, de prédire la séquence des répertoires créés. Nous proposons donc le Makefile suivant avec les arguments que nous avons déduits de gpt <commande> --help :

GPT=/home/jmfriedt/snap/bin/gpt
FILENAME1=S1A_IW_SLC__1SDV_20201223T055137_20201223T055204_035809_043117_2E03.zip
all: target_final.dim
 
target_split.dim: $(FILENAME1)       # Split
  $(GPT) TOPSAR-Split -Ssource=$(FILENAME1) -PfirstBurstIndex=3 -PlastBurstIndex=4 -Psubswath=IW1 -t target_split
 
target_orb.dim: target_split.dim     # Orbital Params
  $(GPT) Apply-Orbit-File -Ssource=target_split.dim -t target_orb
 
target_deburst.dim: target_orb.dim   # Deburst
  $(GPT) TOPSAR-Deburst -SsourceProduct=target_split.dim -t target_deburst.dim -c 2048M -q 2
 
target_final.dim: target_deburst.dim # Range Doppler Terrain: cf qgis for map projection
  $(GPT) Terrain-Correction -SsourceProduct=target_deburst.dim -PdemName="SRTM 3Sec" -PmapProjection="EPSG:32632" \
 -t target_final.dim
  gdal_translate -of GTiff ./target_final.data/Int*VV*.img final_intensity.tif
 
clean:
  rm -rf target*

Les arguments de TOPSAR-Split, et notamment le numéro du burst et des indices au sein de ce burst, nécessitent en l’état actuel de notre connaissance une évaluation, au moins sur la première image d’une séquence, par l’interface graphique SNAP. Le reste est totalement automatisé, pour prendre 90 à 180 secondes de calcul sur deux bursts sur un Panasonic CF-19 muni de 12 GB de RAM, mais surtout d’un stockage non volatile sur SSD, un point crucial pour le confort de travail lorsque plusieurs GB de données sont transférés de la zone de stockage en mémoire volatile pour traitement.

Plus compliquée (nous ne ferons pas le jeu de mots de nommer cette approche complexe), l’exploitation de la phase répète ces opérations sur deux images – une maîtresse et une esclave – afin de calculer un interférogramme qui nécessite un ajustement fin de l’alignement des deux images en vue de calculer leur écart de phase. Comme le même modèle numérique de terrain sera appliqué aux deux images, toute erreur sera annulée et seuls les effets atmosphériques [16], en plus de la différence de distance dans la direction de visée, impacteront la phase. Les étapes additionnelles à suivre pour un traitement interférométrique se résument, après les parties orbit (appliquées sur les deux images, maîtresse et esclave) à :

  1. positionner avec précision l’image esclave par rapport à l’image de référence : back-geocoding ;
  2. améliorer cet alignement : enhanced spectral diversity ;
  3. calculer l’interférogramme (complexe) : interferogram ;
  4. éliminer les artefacts d’acquisition des données : deburst ;
  5. retrait de la phase topographique : topographic phase removal ;
  6. moyenne spatiale : multilook ;
  7. filtrage dans le domaine spectral spatial : Goldstein filtering ;
  8. projection dans le référentiel géographique et correction des effets topographiques sur le positionnement des points de mesure : terrain correction ;
  9. traduction en un format GeoTIFF lisible par QGIS.

Tout ceci, mis en œuvre dans un Makefile étendu, permet d’obtenir :

GPT=/home/jmfriedt/snap/bin/gpt
FILENAME1=S1A_IW_SLC__1SDV_20190615T054201_20190615T054228_027686_032005_E4D9.zip
FILENAME2=S1A_IW_SLC__1SDV_20190627T054202_20190627T054229_027861_03253C_9240.zip
all: target_final.dim
 
target_split1.dim: $(FILENAME1)                    # Split
    $(GPT) TOPSAR-Split -Ssource=$(FILENAME1) -PfirstBurstIndex=6 -PlastBurstIndex=9 -Psubswath=IW3 -t target_split1
target_split2.dim: $(FILENAME2)
    $(GPT) TOPSAR-Split -Ssource=$(FILENAME2) -PfirstBurstIndex=6 -PlastBurstIndex=9 -Psubswath=IW3 -t target_split2
 
target_orb1.dim: target_split1.dim                 # Orbital Params
    $(GPT) Apply-Orbit-File -Ssource=target_split1.dim -t target_orb1
target_orb2.dim: target_split2.dim
    $(GPT) Apply-Orbit-File -Ssource=target_split2.dim -t target_orb2
 
target_stack.dim: target_orb1.dim target_orb2.dim # Back Geocoding
    $(GPT) Back-Geocoding -SsourceProducts=target_orb1.dim target_orb2.dim -PdemName="SRTM 3Sec" \
            -t target_stack.dim -c 8192M -q 8
 
target_esd.dim: target_stack.dim                   # Enhanced Spectral Diversity
    $(GPT) Enhanced-Spectral-Diversity -Ssource=target_stack.dim -t target_esd.dim -c 2048M -q 2
 
target_interf.dim: target_esd.dim                  # Interferometry
    $(GPT) Interferogram -SsourceProduct=target_esd.dim -t target_interf.dim -PsubtractFlatEarthPhase=true
# -PdemName="External DEM" -PexternalDEMFile="DEM.tif" -PexternalDEMNoDataValue=0.0
 
target_deburst.dim: target_interf.dim              # Deburst
    $(GPT) TOPSAR-Deburst -SsourceProduct=target_interf.dim -t target_deburst.dim -c 2048M -q 2 # >& tmp.log
 
target_topo.dim: target_deburst.dim                # Topographic phase removal
    $(GPT) TopoPhaseRemoval -SsourceProduct=target_deburst.dim -PdemName="SRTM 3Sec" -t target_topo.dim
 
target_ml.dim: target_topo.dim                     # Multilook
    $(GPT) Multilook -SsourceProduct=target_topo.dim -t target_ml.dim
 
target_gold.dim: target_ml.dim                     # Goldstein Phase Filtering
    $(GPT) GoldsteinPhaseFiltering -SsourceProduct=target_ml.dim -t target_gold.dim
 
target_final.dim: target_gold.dim                  # Range Doppler Terrain: cf qgis for map projection
    $(eval list1=`ls target_gold.data/q*img | cut -d\/ -f2 | sed 's/\.img//g' | sed 's/q/Phase/g' | tr '\n' ','`)
    $(eval list2=`ls target_gold.data/q*img | cut -d\/ -f2 | sed 's/\.img//g' | sed 's/q/Intensity/g' | tr '\n' ',' \
            | sed 's/,/_db/g'`)
    $(eval list3=`ls target_gold.data/coh*img | cut -d\/ -f2 | sed 's/\.img//g'`)
    $(GPT) Terrain-Correction -SsourceProduct=target_gold.dim -PdemName="SRTM 3Sec" -PmapProjection="EPSG:32632" \
           -PsaveSelectedSourceBand=true -PsourceBands="$(list1)$(list2),$(list3)" -t target_final.dim
    gdal_translate -of GTiff ./target_final.data/Phase*VV*.img final_phase.tif
    gdal_translate -of GTiff ./target_final.data/coh*.img final_coh.tif
    gdal_translate -of GTiff ./target_final.data/Int*.img final_intensity.tif

On notera en particulier que sur un ordinateur Panasonic CF-19 muni d’un processeur quad-core et de 12 GB de RAM, nous nous sommes longuement heurtés à des erreurs aléatoires de corruption de mémoire et de dépassement de taille du tas, avant d’inclure les arguments -c 2048M -q 2 qui limitent le nombre de threads exécutés en parallèle et la taille des blocs traités. Le traitement est un peu plus long, mais les plantages arbitraires de la machine virtuelle Java ne sont désormais plus qu’un mauvais souvenir, qui nous avait bloqués dans ce traitement depuis plusieurs mois.

La seule subtilité dans ce Makefile, outre l’identification des arguments de chaque commande, est que seules les bandes complexes I et Q sont conservées, tandis que le module et la phase du complexe sont déduits de ces grandeurs, mais ne sont pas conservés. Ainsi, lors de la dernière étape de génération du modèle projeté, obtenir la phase et le module (et non pas seulement la partie réelle et imaginaire du complexe, qui n’a aucun intérêt) nécessite d’informer explicitement gpt de notre volonté de générer ces bandes. Ce résultat s’obtient en analysant le nom des couches calculées par les étapes précédentes (disponible dans le répertoire data de chaque étape de calcul) et à coups de remplacement d’expressions régulières (sed), de générer le nom des bandes Phase* et Intensity*.

On notera que les cartes des modèles numériques de terrain sont copiées en local et stockées dans ~/.snap/auxdata/dem/ : cette information peut être utile si un serveur de modèle numérique devient inaccessible et un téléchargement manuel est nécessaire.

2.3 Application : exploitation minière à ciel ouvert

Nous allons appliquer cette chaîne de traitement sur un cas a priori simple d’exploitation de charbon dans la mine à ciel ouvert en Allemagne (figure 8) de Garzweiler près de Cologne et Düsseldorf (51°N, 6,5°E). Nous nous attendons à observer des variations de topographie de plusieurs centimètres à décimètres sur un environnement contrôlé dans l’intervalle de temps relativement court qu’est le taux de répétition des passages de 12 jours. Nous avons sélectionné deux passages les 15 et 27 juin 2019 pour nous affranchir des risques d’inactivité de l’été 2020.

v-fig9 6

Fig. 8 : Sélection de la zone analysée (burst et segment dans le burst) compte tenu de la zone géographique d’intérêt identifiée dans Google Maps.

L’application du dernier Makefile proposé doit se faire sans problème en renseignant convenablement FILENAME1 et FILENAME2 avec les jeux de données téléchargés – dans notre cas S1A_IW_SLC__1SDV_20190615T054201_20190615T054228_027686_032005_E4D9.zip et S1A_IW_SLC__1SDV_20190627T054202_20190627T054229_027861_03253C_9240.zip pour fournir le résultat proposé dans la figure 9.

v-faa

Fig. 9 : En haut à gauche, la phase de l’interférogramme, à droite, les images MODIS Terra prises le jour du second passage (haut) et du premier passage (bas) de Sentinel, en bas à gauche, le taux de corrélation indiquant la qualité de la mesure de phase.

Les mines – tout comme les autres zones urbanisées – sont parfaitement visibles par des niveaux de corrélation élevés, en l’absence de végétation qui absorbe et diffracte les signaux électromagnétiques, et sont caractérisées par des rotations rapides de phase, chaque rotation de étant induite par une variation de distance de propagation de l’onde de λ/2 = 2,8 cm.

Moins simples à analyser, les rotations de phase lentes à grande échelle dans des zones portant de fortes corrélations ne sont pas faciles à interpréter. Afin d’analyser une hypothèse d’artefact atmosphérique [16], les images MODIS obtenues sur https://wvs.earthdata.nasa.gov/ pour les mêmes dates sont proposées : la seconde acquisition s’est faite sans couvert nuageux, mais la première présentait une couverture nuageuse dense qui aurait pu ralentir localement l’onde, compte tenu de la permittivité plus élevée de l’air humide (hypothèse qui mériterait une analyse plus poussée pour être validée [17, 18]). Nous n’avons pas réussi à identifier l’heure de prise de vue de MODIS Terra, tandis que MODIS Aqua présente pour la même date une couverture nuageuse très différente.

2.4 Déplacement induit par un tremblement de terre

Le tremblement de terre survenu le 7 janvier 2020 à Puerto Rico est décrit sur le site de la NASA sur https://www.nasa.gov/feature/jpl/puerto-rico-quake-damage-visible-from-space et va nous servir de référence pour valider notre compréhension de la chaîne de traitement sur un cas concret.

v-f10

Fig. 10 : Gauche : interférogramme entre deux passages précédant le tremblement de terre. Droite : interférogrammes entre deux passages pris avant et après le tremblement de terre.

Bien entendu, ces mesures de déplacement, ici encore présentées sous forme de phase enroulée de toutes les demi-longueurs d’onde, ne sont pas les ondes sismiques elles-mêmes, mais les déplacements dans la direction de visée du satellite résultant de leur propagation à la date du séisme. On notera que les populations vivant en zone sismique peuvent établir la distance à l’épicentre comme nous avons l’habitude de le faire avec les impacts de foudre. Tandis que le flash lumineux de la foudre arrive « instantanément » (0,3 km/µs), le son correspondant au tonnerre se traîne à 0,33 km/s (noter que l’unité de temps est passée de µs à s) et la distance à l’impact, en km, se déduit de la différence de retard entre les signaux lumineux et sonores divisée par 3. De la même façon, pour un tremblement de terre, l’onde longitudinale P se déplace à environ 5 km/s dans la roche tandis que l’onde de Rayleigh, la plus destructrice, se propage à 3 km/s et, entre les deux, l’onde transverse S, plus subtile à détecter, de l’ordre de 4 km/s. Un ordre de grandeur à l’épicentre en km est donc l’intervalle de temps entre les trois secousses en seconde.

2.5 Cas d’une zone arctique : modèle numérique de terrain dédié

Le dernier cas que nous proposons d’analyser – et qui en pratique nous intéresse le plus dans nos activités de recherche – est une zone arctique (figure 11). Ce cas est intéressant, car il n’est pas couvert par le modèle numérique de terrain issu de la navette spatiale SRTM et nécessite donc d’utiliser un modèle numérique de terrain dédié. Les modèles numériques de terrain globaux issus de traitements optiques (p. ex. GDEM) sont très mauvais dans les régions arctiques, où la couverture nuageuse est souvent importante et l’uniformité du manteau neigeux interdit un traitement efficace par corrélation des images ASTER [19] ou SPOT5 [20] sur les glaciers. Nous exploiterons donc un modèle numérique de terrain avec une résolution de 5 m disponible sur le site de l’Institut polaire norvégien https://geodata.npolar.no/ et en particulier [21]. La difficulté que nous avons rencontrée dans ce cas est de renseigner la valeur d’absence de données – par exemple au-dessus de la mer – information sans laquelle SNAP donne une erreur inextricable de dépassement de mémoire. Ainsi, partant d’un modèle numérique de terrain au format GeoTIFF dont les valeurs absentes sont probablement renseignées comme valant -, nous définissons ces valeurs comme nulles par gdal_calc.py -A DEM.tif --calc="A" --outfile=result.tif --NoDataValue=0 et informons gpt que la valeur nulle signifie une absence par -PexternalDEMNoDataValue=0.0. Cette solution résout une bonne partie des dépassements de mémoire de la machine virtuelle Java.

v-figC 1

Fig. 11 : Interférogramme de la presqu’île de Brøgger autour de 79°N, trop haut en latitude pour être couvert par SRTM.

Il est intéressant de noter que l’interaction de l’onde électromagnétique micro-onde avec le milieu complexe qu’est le manteau neigeux et la glace fournit des informations non triviales sur la couverture neigeuse et son évolution au cours de la saison estivale. En effet, [11] nous enseigne que la ligne d’équilibre peut être déduite uniquement d’une analyse de réflectivité, sans entrer dans les subtilités de l’interférométrie. Une tentative de reproduction des résultats présentés dans cet article pour le contexte qui nous intéresse est fournie en figure 12, qui fournit bien une tendance correspondant au recul du manteau neigeux avec la saison de fonte, en accord avec une disparition de la neige au niveau de la mer à partir du 17 mai 2020 telle que documentée sur https://www.yr.no/en/statistics/graph/1-2837778/Norway/Svalbard/Svalbard/Ny-%C3%85lesund?q=2020-05. L’analyse de cette évolution n’est pas simple, entre eau liquide qui sature le manteau neigeux et augmente la réflectivité de l’interface avec l’air, rugosité de surface et changement d’interface entre neige et glace.

v-figD 2

Fig. 12 : Évolution de la réflectivité le long d’un transect approximant la ligne centrale du glacier arctique qui nous intéresse. Les diverses cartes les plus marquantes au cours du printemps-été-automne sont fournies autour du graphique, dont la flèche rouge guide l’œil sur une signature de la fonte du manteau neigeux de l’altitude la plus basse (en bas du graphique) vers la plus haute. Le contexte géographique, à gauche, est fourni avec le nord vers le bas pour correspondre au graphique de réflectivité. Droite : ombres portées calculées par r.sunmask.position du greffon GRASS de QGIS pour un satellite illuminant la scène depuis l’est avec une élévation de 26° (jaune), 30° (bleu) et 40° (rouge) correspondant aux angles des bandes (IW) 1 à 3 respectivement d’après https://sentinel.esa.int/web/sentinel/user-guides/sentinel-1-sar/acquisition-modes/ interferometric-wide-swath – heureusement notre zone se trouve en IW3 avec l’angle le moins rasant et donc présentant le moins d’ombres portées (angle d’illumination entre 40 et 45°).

Un catadioptre a été déployé (figure 13), probablement pour une analyse des signaux rétrodiffusés par les satellites ERS au début des années 2000, près de Ny-Ålesund et pourra éventuellement servir de référence pour compenser les variations de propriétés atmosphériques lors d’analyses interférométriques à long terme. Cette cible coopérative n’est située qu’à 6 km environ de la zone qui nous intéresse (ROI) et devrait fournir une référence pertinente (voir section suivante 3).

v-figE 1

Fig. 13 : Un catadioptre a été déployé il y a une vingtaine d’années près de la piste d’atterrissage de Ny-Ålesund, probablement par l’Agence de Recherche de la Défense Norvégienne (FFI) pour analyser les signaux d’ERS, et est encore bien visible sur les images de Sentinel-1.

3. Cible artificielle coopérative

Maintenant que nous sommes convaincus de traiter les données RADAR de Sentinel-1 et de les projeter dans un référentiel géographique cohérent, serions-nous capables de parler au satellite en rétrodiffusant la puissance émise vers le satellite ? Nous avons vu [2] qu’une géométrie appropriée est le catadioptre conçu pour renvoyer vers la source monostatique toute puissance rayonnée, et ce, quelle que soit la direction d’incidence. Le coin de cube doit cependant être suffisamment grand pour que la puissance qu’il réfléchit soit significative devant la puissance réfléchie par les obstacles présents dans le pixel de 5 m x 20 m illuminé par Sentinel-1. Alors que les zones planes ou végétalisées ne renvoient que peu de puissance, nous avons vu que les zones urbanisées peuvent renvoyer une puissance significative, surtout si le hasard de l’architecture présente des structures à angle droit. Les contraintes géométriques sur la réalisation du catadioptre sont drastiques pour réfléchir une fraction significative de la puissance incidente vers le récepteur situé à plus de 700 km dans l’espace, et une étude détaillée [22] montre que l’angle entre les faces ne doit différer de la valeur idéale de 90° que de quelques degrés et la planéité de quelques fractions de millimètres. Il aura fallu toute la dextérité de soudure du second auteur pour atteindre un résultat fonctionnel après une recherche de solution alliant rigidité, réflectivité de l’onde électromagnétique et poids sous forme des panneaux de polymères couverts d’aluminium Dibond (50 euros/m2). La dimension du catadioptre doit être estimée pour présenter une surface réflectrice équivalente importante devant les cibles non coopératives présentes dans le pixel contenant le coin réflecteur. Les deux géométries classiques sont le trièdre carré et le trièdre triangulaire : bien que la première géométrie présente un coefficient de réflexion nettement plus important, la seconde est presque toujours utilisée en pratique, probablement pour sa moins grande prise au vent, l’aisance de la protéger en tendant une toile entre ses coins, et une moins grande sensibilité du coefficient de réflexion à l’élévation. Dans nos conditions contrôlées, nous opterons pour le trièdre carré, il sera toujours possible de couper les faces carrées du cube en triangles isocèles plus tard.

La littérature [23] nous informe que nous devons viser un catadioptre de dimensions métriques. Concrètement, les trois cas qui nous intéressent sont :

  • la sphère de rayon R présente une section RADAR RCS = πR2 m2 soit, en prenant R = 2 m pour modéliser une voiture, une valeur de l’ordre de 13 m2 que nous devrons noyer dans le signal que nous rétrodiffuserons volontairement ;
  • un catadioptre de côté triangulaire de longueur L illuminé par une onde de longueur d’onde λ présente une section RADAR RCS = (4/3)πL4/λ2 soit pour un réflecteur de 1 m de long illuminé à 5,4 GHz une valeur de 1400 m2 ;
  • un catadioptre de côté carré de longueur L illuminé par une onde de longueur d’onde λ présente une section RADAR RCS = 12πL4/λ2 soit pour un réflecteur de 1 m de long illuminé à 5,4 GHz une valeur de 12200 m2 ou dix fois plus importante que le catadioptre triangulaire.

On notera que ces grandeurs de RCS évoluent comme la puissance quatrième de la longueur du côté L et chutent donc d’un facteur 16 en réduisant la taille du catadioptre d’un facteur 2.

Un tel dispositif est réalisé afin de valider notre capacité à détecter un signal dominé par le catadioptre qui devra servir à terme de mesure ponctuelle de déplacement par une analyse de la phase dans le pixel contenant ce signal dominé par la position du réflecteur uniquement, et non des autres cibles non coopératives (véhicules par exemple) qui seraient susceptibles de perturber la mesure.

Direction d’illumination

Nous avons vu que Sentinel-1 illumine de façon oblique ses cibles, et donc selon des directions opposées selon qu’il passe du sud au nord (ascending) ou du nord au sud (descending). Il faut donc orienter le catadioptre dans la bonne direction selon le passage visé. Nous récupérons la description de l’orbite du satellite au format Two Line Element (TLE) sur le site de Celetrak sur https://www.celestrak.com/NORAD/elements/table.php?tleFile=active et traçons les trajectoires, vues depuis le sol, suivies par le satellite au cours de son parcours le long de son orbite au moyen de https://github.com/anoved/Ground-Track-Generator en exécutant les commandes :

  • ./gtg --input ../sentinel1b.tle --output S1B 201208.shp --start "2020-12-08 16:0:0.0 UTC" --end "2020-12-08 19:0:0.0 UTC" --interval 5s ;
  • ./gtg --input ../sentinel1b.tle --output S1B 201212.shp --start "2020-12-12 5:0:0.0 UTC" --end "2020-12-12 6:0:0.0 UTC" --interval 5s ;
  • ./gtg --input ../sentinel1b.tle --output S1B 201213.shp --start "2020-12-13 17:0:0.0 UTC" --end "2020-12-13 18:0:0.0 UTC" --interval 5s.

Le résultat de la figure suivante illustre bien l’illumination latérale du RADAR spatioporté tantôt depuis l’est, tantôt depuis l’ouest selon que l’orbite soit descendante ou ascendante (nord-sud ou sud-nord).

v-figF 0

Par ailleurs, la littérature nous informe que le maximum de réflectivité d’un catadioptre est atteint pour un angle de 35° par rapport à la plaque qui forme sa base. Connaissant l’élévation du satellite à son apogée, nous devrons donc pencher le coin réflecteur afin que de maximiser le coefficient de réflexion. Comment savoir a priori où et quand passera la satellite ? L’ESA publie des cartes au format KML (facilement exploitables dans Google Earth) avec les dates et horaires de passage ainsi que les zones couvertes. Ainsi, https://sentinel.esa.int/web/sentinel/missions/sentinel-1/observation-scenario/acquisition-segments fournit les zones observées lors de chaque passage. Mais cela ne nous dit pas où se trouve le satellite lors de son passage. Comme d’habitude, Heavens Above fournit la solution avec la position du satellite lors de son survol, en particulier pour savoir s’il observe la cible depuis l’est ou l’ouest, ce que la littérature nomme un passage ascendant ou descendant. Par ailleurs, Heavens Above nous informe de l’élévation au périgée : dans l’exemple de la Fig. 14, cette élévation est 47° pour une observation depuis Besançon : il faut donc pencher le catadioptre afin de l’élever de 47-35 = 12° par rapport à l’horizontale.

v-figG 1

Fig. 14 : De haut en bas : la prévision de passage au-dessus de Besançon grâce aux fichiers KML fournis par l’ESA prédisant l’orbite des Sentinel ; identification du passage qui illuminera Besançon parmi tous les passages de Sentinel compte tenu de l’angle d’émission du signal RADAR ; carte du passage avec l’élévation du satellite et sa position au maximum d’élévation – ici vers l’ouest, en accord avec le signal le plus fort sur les versants ouest des collines entourant Besançon.

Une fois le catadioptre réalisé (figure 15), il est positionné sur un site où il ne devrait pas être dérangé et supposé stable, pour valider notre capacité à détecter sa présence sur les images Sentinel-1.

v-f15

Fig. 15 : Le catadioptre assemblé par 3 plaques de 1 m x 1 m de Dibond sur un châssis de barres soudées à 90° et orienté vers l’ouest.

Afin de nous convaincre de la capacité à obtenir un signal significatif du catadioptre, nous avons traité pour les 4 passages possibles de chaque plateforme Sentinel-1 – deux ascendantes et deux descendantes – l’intensité des pixels autour de la zone où le signal du catadioptre doit se trouver. Pour ce faire, seul le premier Makefile présenté suffit, puisque nous n’effectuons pas (encore) un traitement interférométrique, mais uniquement une mesure de puissance rétrodiffusée. La figure 16 présente l’évolution de la carte de réflectivité en fonction des dates d’acquisition, pour 4 passages pour lesquels le catadioptre n’est pas encore déployé (haut), et un passage où le catadioptre est en place (bas, gauche). Le contexte géographique est présenté en bas, avec la flèche rouge indiquant l’emplacement prévu du catadioptre. L’évolution du maximum de réflectivité dans le carré jaune indiquant la position du catadioptre est résumée en figure 17 : une nette augmentation pour les passages des satellites illuminant le catadioptre (passages ascendants) est observée, alors qu’aucune évolution pour les passages n’illuminant pas la cible coopérative (orbites descendantes) n’est visible, car passant du mauvais côté (illumination depuis l’est alors que le catadioptre est orienté vers l’ouest).

v-f16

Fig. 16 : Cartes de réflectivité pour les passages de Sentinel-1B. Les deux colonnes de gauche sont acquises avant l’installation du catadioptre, les deux colonnes de droite après. Les lignes du haut et du bas sont des passages ascendants de Sentinel-1B qui illumine le catadioptre par l’ouest, avec un net gain de réflectivité au-dessus du carré jaune qui représente l’emplacement prévu du réflecteur ; la ligne du milieu est un passage descendant où le catadioptre est illuminé du mauvais côté et donc ne présente pas de gain de réflectivité. La figure de gauche, milieu donne le contexte géographique aussi visible en transparence sur les autres images : l’emplacement prévu du catadioptre est indiqué par une flèche rouge et un carré jaune. Ligne en bas : images issues des orbits ascendantes de Sentinel 1A illuminant la cible, première observation avant son déploiement puis trois images après.

Nous attribuons les deux zones de réflectivité moyenne (figure 16) qui polluent quelque peu nos résultats par les escaliers métalliques d’issue de secours le long du bâtiment se comportant comme réflecteurs RADAR : de tels artefacts ne devraient pas être visibles en dehors d’un environnement urbain. L’absence de réflectivité de l’escalier aussi présent sur le bâtiment du milieu n’est pas expliquée.

v-maximum

Fig. 17 : Évolution du maximum de réflectivité autour de la zone contenant le catadioptre, avec l’indication de la date de son installation le 8 décembre 2020 par le trait vertical. Seuls les passages ascendants, avec un faisceau illuminant depuis l’ouest, présentent un gain de réflectivité après installation du catadioptre. Le code couleur attribue des tendances rouges aux passages ascendant (illuminant le réflecteur) et vert pour les passages descendants, permettant de clairement départager les deux contributions et valider l’impact du catadioptre après son déploiement.

Conclusion

Suite à une étude qui nous avait permis d’appréhender les bases du traitement SAR et InSAR des RADAR au sol (GB-SAR), nous nous sommes efforcés d’appliquer ces connaissances aux données de RADAR spatioportés mises à disposition librement par l’ESA.

v-figK

Fig. 18 : Projection des franges d’interférogramme RADAR sur le modèle numérique de terrain de la presqu’île de Brøgger au Spitsberg.

Partant de la bibliothèque SNAP de traitements fournie par l’ESA, nous avons automatisé la séquence dont chaque étape dépend du succès de la précédente par un Makefile. Le résultat, sous forme d’images géoréférencées projetées contenant corrélation, phase (figure 18) et réflectivité, s’intègre efficacement dans un logiciel de gestion d’informations spatialisées tel que QGIS pour une mise en contexte géographique des déplacements fins analysés par interférométrie radiofréquence. En complément de cette analyse des réflecteurs d’opportunité, nous avons déployé une cible coopérative – un catadioptre – dont le signal a été identifié de façon univoque après son installation. Ces résultats offrent des perspectives de suivi long terme de déplacements subcentimétriques liés à des évolutions géomorphologiques naturelles ou artificielles avec une résolution spatiale de l’ordre du décamètre. L’extension de la réalisation du catadioptre vers une solution démontable et transportable, résistante aux conditions climatiques arctiques, est en cours d’évaluation.

Remerciements

O. Testault (FabLab des Fabriques, Besançon) nous a expliqué comment draper une image (texture) contenant les interférogrammes sur le modèle numérique de terrain issu du greffon DEMto3D (https://plugins.qgis.org/plugins/DEMto3D/) de QGIS. Les voyages en Arctique sont en partie financés par l’Institut Paul Émile Victor (IPEV) et la Région Franche-Comté. Toutes les références bibliographiques qui ne sont pas librement disponibles sur le Web sont acquises auprès de Library Genesis sur gen.lib.rus.ec, une ressource incontournable pour nos recherches et développements.

Références & Notes

[1] UN-SPIDER, « United Nations Platform for Space-based Information for Disaster Management and Emergency Response » et leur explication sur l’utilisation de Sentinel-1 : https://un-spider.org/advisory-support/recommended-practices/mudslides-flood-sentinel-1/step-by-step

[2] J. FRIEDT, W. FENG, « Résolution azimutale d’un RADAR à bruit : analyse et réalisation d’un RADAR à synthèse d’ouverture (SAR) par radio logicielle », GNU/Linux Magazine no242, novembre 2020 : https://connect.ed-diamond.com/GNU-Linux-Magazine/GLMF-242/Resolution-azimutale-d-un-RADAR-a-bruit-analyse-et-realisation-d-un-RADAR-a-synthese-d-ouverture-SAR-par-radio-logicielle

[3] ESA, « Sentinel-1 – ESA’s Radar Observatory Mission for GMES Operational Services », SP-1322/1, p.20, mars 2012 : https://sentinel.esa.int/documents/247904/349449/S1_SP-1322_1.pdf

[4] Nous empruntons ce qualificatif à Radars aéroportés et spatioportés (2015) à https://www.rncan.gc.ca/cartes-outils-publications/imagerie-satellitaire-photos-aer/tutoriels-sur-la-teledetection/teledetection-par-hyperfrequence/radars-aeroportes-et-spatioportes/9398

[5] ESA, « ENVISAT and ERS missions – Data access guide », 2011 : https://earth.esa.int/documents/10174/13019/Envisat_ERS_Data_Access_Guide.pdf

[6] J. FRIEDT, W. FENG, « Mesure fine de déplacement par RADAR interférométrique à synthèse d’ouverture (InSAR) par radio logicielle », GNU/Linux Magazine no244, janvier 2021 : https://connect.ed-diamond.com/GNU-Linux-Magazine/GLMF-244/Mesure-fine-de-deplacement-par-RADAR-interferometrique-a-synthese-d-ouverture-InSAR-par-radio-logicielle

[7] J.A. JOHANNESSEN, F. COLLARD, « SAR Instrument Principles and Processing », 2012 : https://earth.esa.int/eogateway/documents/20142/0/01_Wednesday_OCT2013_SAR_principles.pdf

[8] H. LEE, J. MOON, « Analysis of a Bistatic Ground-Based Synthetic Aperture Radar System and Indoor Experiments », MDPI Remote Sensing 13(1), 63, 2020 : https://www.mdpi.com/2072-4292/13/1/63/htm

[9] Sentinel dans la presse : https://www.bbc.com/news/science-environment-55022567 et https://www.bbc.com/news/science-environment-54926152

[10] D.W. HAWKINS, « Synthetic Aperture Imaging Algorithms:with application to wide bandwidth sonar », PhD, University of Canterbury, Christchurch, New Zealand, 1996 : https://ir.canterbury.ac.nz/handle/10092/1082

[11] S.H. WINSVOLD et al., « Using SAR satellite data time series for regional glacier mapping », The Cryosphere 12, 867–890, 2018.

[12] T. TAMM et al., « Relating Sentinel-1 Interferometric Coherence to Mowing Events on Grasslands », MDPI Remote Sensing 8 802, 2016.

[13] N.J SCHNEEVOIGT et al., « Glacier displacement on Comfortlessbreen, Svalbard, using 2-pass differential SAR interferometry (DInSAR) with a digital elevation model », Polar Record 48 (244), 17–25, 2012.

[14] A. BRAUN et L. VECI, « Sentinel-1 Toolbox – TOPS Interferometry Tutorial », janvier 2020 : http://step.esa.int/docs/tutorials/S1TBX%20TOPSAR%20Interferometry%20with%20Sentinel-1%20Tutorial_v2.pdf

[15] L. VECI, « SNAP Command Line Tutorial », ESA, 2020 : http://step.esa.int/docs/tutorials/SNAP_CommandLine_Tutorial.pdf

[16] M.P DOIN et al. « Corrections of stratified tropospheric delays in SAR interferometry: Validation with global atmospheric models », Journal of Applied Geophysics 69(1) 35–50, 2009 : https://www.sciencedirect.com/science/article/abs/pii/S0926985109000603?via

[17] I.P. KOVÁCS et al., « How to avoid false interpretations of Sentinel-1A TOPSAR interferometric data in landslide mapping? A case study: Recent landslides in Transdanubia, Hungary », Natural Hazards 96 (2) 693–712, 2019.

[18] P. MARINKOVIC et al., « InSAR quality control: Analysis of five years of corner reflector time series », Proc. Fringe 2007 (ESA SP-649) 26, 2007.

[19] T. TOUTIN, « ASTER DEMs for geomatic and geoscientific applications: a review », International Journal of Remote Sensing 29 (7) 1855–1875, 2008 : https://www.tandfonline.com/doi/full/10.1080/01431160701408477

[20] J. KORONA, É. BERTHIER et al., « SPIRIT. SPOT 5 stereoscopic survey of polar Ice: reference images and topographies during the fourth International Polar Year (2007–2009) », ISPRS Journal of Photogrammetry and Remote Sensing 64 204-–212, 2009.

[21] Norwegian Polar Institute, « Terrengmodell Svalbard (S0 Terrengmodell [Data set] », Norwegian Polar Institute, 2014 : https://doi.org/10.21334/npolar.2014.dce53a47

[22] M.C. GARTHWAITE et al., « The Design of Radar Corner Reflectors for the Australian Geophysical Observing System – A single design suitable for InSAR deformation monitoring and SAR calibration at multiple microwave frequency bands », Record 2015/03 avec la correction de l’équation erronée en p.27 dans R. SARATPULAPA et al, « Corner reflectors pattern study with & without orthogonality errors », 13th International Conference on Electromagnetic Interference and Compatibility (INCEMIC), pp.196–201, 2015.

[23] M. JAUVIN, et al., « Integration of Corner Reflectors for the Monitoring of Mountain Glacier Areas with Sentinel-1 Time Series », MDPI Remote Sensing 11 (8), 988, 2019.

[24] Y. QIN et al., « The design and experiments on corner reflectors for urban ground deformation monitoring in Hong Kong », Int. J. of Antennas and Propagation, 2013.



Article rédigé par

Par le(s) même(s) auteur(s)

Synchronisation d’ordinateurs par réseau informatique pour la datation sous GNU/Linux : NTP, PTP et GPS sur Raspberry Pi Compute Module 4

Magazine
Marque
Hackable
Numéro
51
Mois de parution
novembre 2023
Spécialité(s)
Résumé

Nombre d’outils, à commencer par make, s’appuient sur la date d’accès aux fichiers pour décider de leur obsolescence. Dans le cadre d’intercomparaisons d’horloges, nous effectuons des acquisitions par radio logicielle sur divers sites géographiquement distincts et nous nous interrogeons sur la date d’acquisition avec une résolution aussi élevée que possible. Que veut dire « élevée » et quel niveau de synchronisation pouvons-nous espérer entre deux ordinateurs exécutant GNU/Linux ? Nous conclurons avec la nécessité de corriger l’erreur de l’oscillateur qui cadence le processeur et démontrerons comment quelques composants passifs sur Compute Module 4 permettent d’atteindre ce résultat.

Du domaine temporel au domaine spectral dans 2,5 kB de mémoire : transformée de Fourier rapide sur Atmega32U4 et quelques subtilités du C

Magazine
Marque
Hackable
Numéro
49
Mois de parution
juillet 2023
Spécialité(s)
Résumé

Nous avons exploré diverses implémentations libres de transformées de Fourier discrètes rapides (FFT), mais leur occupation en mémoire reste de la dizaine de kilooctets. Que peut-on faire avec 2,5 kB de mémoire ? La vénérable note d’application 3722 de Maxim IC nous enseigne comment implémenter efficacement une FFT sur microcontrôleur 8-bits et l’arithmétique en virgule fixe, et la notation en complément à deux au passage.

FreeRTOS dans 2,5 KB de RAM sur Atmega32U4

Magazine
Marque
Hackable
Numéro
48
Mois de parution
mai 2023
Spécialité(s)
Résumé

FreeRTOS [1], l’environnement exécutif de Richard Barry plébiscité par Amazon Web Services (AWS), fonctionne sur une plateforme matérielle ou son émulateur munis de seulement 2,5 KB de RAM. La mise en œuvre de FreeRTOS dans aussi peu de ressources fournit une opportunité de plonger dans les détails de l’implémentation de ses fonctions.

Les derniers articles Premiums

Les derniers articles Premium

Quarkus : applications Java pour conteneurs

Magazine
Marque
Contenu Premium
Spécialité(s)
Résumé

Initié par Red Hat, il y a quelques années le projet Quarkus a pris son envol et en est désormais à sa troisième version majeure. Il propose un cadre d’exécution pour une application de Java radicalement différente, où son exécution ultra optimisée en fait un parfait candidat pour le déploiement sur des conteneurs tels que ceux de Docker ou Podman. Quarkus va même encore plus loin, en permettant de transformer l’application Java en un exécutable natif ! Voici une rapide introduction, par la pratique, à cet incroyable framework, qui nous offrira l’opportunité d’illustrer également sa facilité de prise en main.

De la scytale au bit quantique : l’avenir de la cryptographie

Magazine
Marque
Contenu Premium
Spécialité(s)
Résumé

Imaginez un monde où nos données seraient aussi insaisissables que le célèbre chat de Schrödinger : à la fois sécurisées et non sécurisées jusqu'à ce qu'un cryptographe quantique décide d’y jeter un œil. Cet article nous emmène dans les méandres de la cryptographie quantique, où la physique quantique n'est pas seulement une affaire de laboratoires, mais la clé d'un futur numérique très sécurisé. Entre principes quantiques mystérieux, défis techniques, et applications pratiques, nous allons découvrir comment cette technologie s'apprête à encoder nos données dans une dimension où même les meilleurs cryptographes n’y pourraient rien faire.

Les nouvelles menaces liées à l’intelligence artificielle

Magazine
Marque
Contenu Premium
Spécialité(s)
Résumé

Sommes-nous proches de la singularité technologique ? Peu probable. Même si l’intelligence artificielle a fait un bond ces dernières années (elle est étudiée depuis des dizaines d’années), nous sommes loin d’en perdre le contrôle. Et pourtant, une partie de l’utilisation de l’intelligence artificielle échappe aux analystes. Eh oui ! Comme tout système, elle est utilisée par des acteurs malveillants essayant d’en tirer profit pécuniairement. Cet article met en exergue quelques-unes des applications de l’intelligence artificielle par des acteurs malveillants et décrit succinctement comment parer à leurs attaques.

Les listes de lecture

9 article(s) - ajoutée le 01/07/2020
Vous désirez apprendre le langage Python, mais ne savez pas trop par où commencer ? Cette liste de lecture vous permettra de faire vos premiers pas en découvrant l'écosystème de Python et en écrivant de petits scripts.
11 article(s) - ajoutée le 01/07/2020
La base de tout programme effectuant une tâche un tant soit peu complexe est un algorithme, une méthode permettant de manipuler des données pour obtenir un résultat attendu. Dans cette liste, vous pourrez découvrir quelques spécimens d'algorithmes.
10 article(s) - ajoutée le 01/07/2020
À quoi bon se targuer de posséder des pétaoctets de données si l'on est incapable d'analyser ces dernières ? Cette liste vous aidera à "faire parler" vos données.
Voir les 64 listes de lecture

Abonnez-vous maintenant

et profitez de tous les contenus en illimité

Je découvre les offres

Déjà abonné ? Connectez-vous