Compression des images hyperspectrales



These en pdf

Guide de lecture

SUIVANT l’évolution générale des technologies, l’observation de la Terre par les satellites fournit des données de plus en plus précises, détaillées, mais aussi complexes. Au cœur de cette thèse sont les images hyperspectrales. Leur apparition, liée à l’amélioration des capteurs et à la volonté de voir toujours plus depuis l’espace, crée de nouvelles problématiques. La quantité importante d’information générée par ces capteurs, la forte redondance entre ces informations et l’importance des détails requiert un système de compression adapté.

Le premier chapitre présente les prérequis pour comprendre le contexte de la compression des images hyperspectrales. Le mode d’acquisition de ces images est expliqué, ce qui permet d’en comprendre leur origine. Les contraintes spécifiques du traitement embarqué sur satellite sont également expliquées, ces limitations vont peser sur le choix de l’algorithme de compression. On étudie ensuite les propriétés statistiques des images hyperspectrales. En effet, il est important de bien connaître ces propriétés pour en tirer parti lors de la compression. Enfin, les bases des techniques de compression sont exposées et le choix d’une compression par transformée justifié par rapport à une compression par quantification vectorielle.

Le modèle de compression choisi va introduire des dégradations sur les images hyperspectrales. L’intérêt de ces images résidant dans leurs détails, il faut s’assurer que ces dégradations ne mettent pas en péril les applications qui utilisent ces données. Le second chapitre détermine des critères de qualité adaptés aux images hyperspectrales. Un grand nombre de critères plus ou moins classiques sont adaptés aux images hyperspectrales. Une démarche est définie pour déterminer les propriétés de ces critères, en terme de sensibilité spécifique à un type de dégradation. Enfin, cinq critères sont finalement conservés pour leur bonne complémentarité.

Cette étude sur les critères de qualité ayant permis de se familiariser un peu plus avec les propriétés des images hyperspectrales, on peut maintenant étudier la compression dans le troisième chapitre. D’abord le standard récent JPEG 2000, toujours en cours de définition pour certaines parties, est appliqué aux images hyperspectrales. Différentes méthodes de décorrélation interbandes sont appliquées pour finalement retenir une transformée en ondelettes en raison d’un bon compromis performances/complexité. JPEG 2000, utilisé dans une configuration difficilement compatible avec les contraintes du spatial, mais présentant d’excellentes performances, sert de référence pour les performances que nous proposons dans cette thèse. Dans un premier temps, nous nous intéressons à la recherche d’une décomposition en ondelettes 3D optimale en termes de débit-distorsion pour les images hyperspectrales. Nous montrons l’apport d’une telle décomposition anisotropique pour la compression des images hyperspectrales. Comme une telle décomposition est dépendante de l’image et du débit visé, ce qui pose des problèmes d’implémentation, nous proposons une décomposition anisotropique fixe, assurant des performances proches de la décomposition optimale pour une large variété d’images hyperspectrales. Dans un deuxième temps, nous étudions le codage des coefficients d’ondelettes obtenus après la décomposition proposée. Les méthodes de compression par arbres de zéros donnent des bons résultats sur les images 2D tout en gardant une complexité raisonnable. On adapte donc ces méthodes, EZW et SPIHT, aux images hyperspectrales. Ainsi, on compare différentes structures d’arbres possibles en fonction de leur capacité à regrouper les zéros. Enfin, les résultats sont présentés pour diverses images, démontrant l’intérêt des méthodes de compression proposées qui approchent celles de JPEG2000, avec un coût calculatoire plus raisonnable. Pour conclure, une utilisation originale de la notation binaire signée est proposée pour tirer parti au mieux des propriétés des arbres de zéros. Cette innovation conduit à proposer une version simplifiée et parallélisable de EZW sans pertes majeures de qualité.

L’évolution des algorithmes de compression ne se fait pas nécessairement seulement vers une augmentation brute des performances. La flexibilité de ces algorithmes est aussi un point important. Une adaptation est donc faite dans le quatrième chapitre pour permettre l’accès aléatoire à une partie déterminée de l’image et pour permettre également de décoder des versions à basse résolution en spatial et en spectral tout en lisant un nombre minimum de bits dans le train binaire. On détaille donc le rassemblement des coefficients d’ondelettes correspondant à la même zone de l’image par groupes pour permettre l’accès aléatoire et par la même occasion pour introduire une certaine résistance aux erreurs. Une allocation de débit doit être réalisée entre les différents groupes pour garder une progression en qualité. La séparation des différentes résolutions pour permettre le décodage progressif en résolution ainsi que les problèmes posés par cette organisation sont expliqués ensuite. Enfin, les résultats et la flexibilité de cet algorithme sont illustrés sur des images hyperspectrales.

Finalement, pour vérifier l’impact de l’algorithme de compression sur la qualité des images, une méthode originale est définie dans le cinquième chapitre pour utiliser les cinq critères de qualité sélectionnés. Cette méthode est ensuite validée numériquement sur différents exemples. Elle montre des performances satisfaisantes pour identifier le type de dégradation et l’impact probable sur une application. La compression définie montre ainsi un diagramme d’erreur très semblable à celui de JPEG 2000 tout en gardant une erreur maximale plus faible et un coût calculatoire moindre.


These en pdf

01-2007 - -