Commit b3e1222d authored by Julie Brossard's avatar Julie Brossard
Browse files

[BUG] Corrected unicode error with LaTeX

parent fbd63135
......@@ -14,7 +14,7 @@ Chaque module algorithmique suivant fait l’objet d’un ou plusieurs tests per
Stratégie et méthode des tests numériques
------------------------------------------
Les données Formosat sont principalement utilisées pour la validation numérique (à l’exception du test de détection des cirrus qui nécessite le plan d’altitude stéréoscopique des nuages présent dans les produits Venμs). Suite au développment de la chaîne MAJA, des tests supplémentaires avec des produits Landsat et Sentinel2 ont été ajoutés pour prendre en compte les dernières évolutions de la chaîne comme la création de nouveaux algorithmes (détection de la neige, des cirrus, estimation des aérosols, etc.) ou la gestion de produits à multiples résolutions. L’essentiel de la validation numérique est menée en comparant chaque image du produit de niveau 2 générée par les chaînes scientifiques Venμs à celle produite précedement par le prototype développé au CESBIO. L’outil de comparaison de l’OTB effectue une différence des images pixel à pixel. Pour chaque bande, il génère l’image des différences et calcule la somme des différences. Le test est validé si ces valeurs sont nulles à un epsilon près, qui est un paramètre d’entrée du test. L’outil calcule également le nombre de pixels sur lesquels sont mesurés ces différences. Compte tenu de la complexité des algorithmes, la valeur nulle semble difficile à atteindre. La valeur du epsilon sera fixée en concer- tation avec le CNES et en tenant compte des résultats obtenus pour les tests unitaires. Il convient également de déterminer si la différence mesurée est acceptable par rapport à la donnée testée (ordre de grandeur des écarts par rapport aux valeurs issues du prototype) Comme pour les tests unitaires, une analyse importante est l’analyse visuelle des images et des images de différence. Elle permet de détecter une structuration non aléatoire des différences sur l’image mais aussi de localiser les différences (proche d’un nuage, d’une zone d’eau, etc.). A cette analyse des images de différence, s’ajoutent d’autres moyens d’analyse. Une stratégie de validation différente est adoptée en fonction du types de données à comparer. Plusieurs types de données sont comparés : les images contenant des grandeurs physiques, les images de dates et les masques. La validation des produits composites passe dans un premier temps par la comparaison des plans « date » pour visualiser les zones qui diffèrent. Les différences mesurées lors de la comparaison des images de date vont se retrouver sur les images composite de réflectance. La validation des masques présents dans le produits L2 se traduit par une analyse statistique des différences entre le masque généré et le masque de référence si besoin est. En effet, la probabilité d’avoir des masques parfaitement identiques entre les masques issus des chaînes Venμs et les masques de référence est faible. Pour comparer ces masques, la simple différence réalisée pixel à pixel peut être complétée par la mise en place d’indicateurs statistiques. Ces derniers permettent de quantifier la performance des détections. Les performances du masque obtenu sont alors exprimées par une matrice de confusion par rapport au masque de référence. A ces indicateurs s’ajoutent le calcul des proportions de bonnes et de fausses détections c’est-à-dire le nombre de pixels correctement identifiés par rapport au nombre de pixels de l’image. Une fois l’algorithme validé, les résultats du test sont référencés et dès lors, systématiquement contrôlés à chaque nouvelle exécution du test. Cette démarche assure la non-régression des algo- rithmes développés tout au long de la phase de codage. Les résultats des tests joués sont systématiquement envoyés au serveur CDash pour être mis en forme et offrir au développeur un environnement de contrôle ergonomique et le suivi de l’évolution des résultats au cours du temps.
Les données Formosat sont principalement utilisées pour la validation numérique (à l’exception du test de détection des cirrus qui nécessite le plan d’altitude stéréoscopique des nuages présent dans les produits Venus). Suite au développment de la chaîne MAJA, des tests supplémentaires avec des produits Landsat et Sentinel2 ont été ajoutés pour prendre en compte les dernières évolutions de la chaîne comme la création de nouveaux algorithmes (détection de la neige, des cirrus, estimation des aérosols, etc.) ou la gestion de produits à multiples résolutions. L’essentiel de la validation numérique est menée en comparant chaque image du produit de niveau 2 générée par les chaînes scientifiques Venus à celle produite précedement par le prototype développé au CESBIO. L’outil de comparaison de l’OTB effectue une différence des images pixel à pixel. Pour chaque bande, il génère l’image des différences et calcule la somme des différences. Le test est validé si ces valeurs sont nulles à un epsilon près, qui est un paramètre d’entrée du test. L’outil calcule également le nombre de pixels sur lesquels sont mesurés ces différences. Compte tenu de la complexité des algorithmes, la valeur nulle semble difficile à atteindre. La valeur du epsilon sera fixée en concer- tation avec le CNES et en tenant compte des résultats obtenus pour les tests unitaires. Il convient également de déterminer si la différence mesurée est acceptable par rapport à la donnée testée (ordre de grandeur des écarts par rapport aux valeurs issues du prototype) Comme pour les tests unitaires, une analyse importante est l’analyse visuelle des images et des images de différence. Elle permet de détecter une structuration non aléatoire des différences sur l’image mais aussi de localiser les différences (proche d’un nuage, d’une zone d’eau, etc.). A cette analyse des images de différence, s’ajoutent d’autres moyens d’analyse. Une stratégie de validation différente est adoptée en fonction du types de données à comparer. Plusieurs types de données sont comparés : les images contenant des grandeurs physiques, les images de dates et les masques. La validation des produits composites passe dans un premier temps par la comparaison des plans « date » pour visualiser les zones qui diffèrent. Les différences mesurées lors de la comparaison des images de date vont se retrouver sur les images composite de réflectance. La validation des masques présents dans le produits L2 se traduit par une analyse statistique des différences entre le masque généré et le masque de référence si besoin est. En effet, la probabilité d’avoir des masques parfaitement identiques entre les masques issus des chaînes Venus et les masques de référence est faible. Pour comparer ces masques, la simple différence réalisée pixel à pixel peut être complétée par la mise en place d’indicateurs statistiques. Ces derniers permettent de quantifier la performance des détections. Les performances du masque obtenu sont alors exprimées par une matrice de confusion par rapport au masque de référence. A ces indicateurs s’ajoutent le calcul des proportions de bonnes et de fausses détections c’est-à-dire le nombre de pixels correctement identifiés par rapport au nombre de pixels de l’image. Une fois l’algorithme validé, les résultats du test sont référencés et dès lors, systématiquement contrôlés à chaque nouvelle exécution du test. Cette démarche assure la non-régression des algo- rithmes développés tout au long de la phase de codage. Les résultats des tests joués sont systématiquement envoyés au serveur CDash pour être mis en forme et offrir au développeur un environnement de contrôle ergonomique et le suivi de l’évolution des résultats au cours du temps.
Formalisation des tests de validation algorithmique
......
Supports Markdown
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment