logo INRIA
Florent Chatelain
logo Ariana
Estimation des paramètres pour les processus ponctuels marqués

Outre les prolongements des travaux et collaborations menés durant ma thèse, je m'intéresse dans le cadre de mon post-doc, débuté en novembre 2007 à l'INRIA de Sophia Antipolis - Méditérranée, au domaine de la géométrie stochastique. Les applications visées sont l'extraction d'objets dans des images de télédétection. Ces travaux sont encadrés par Josiane Zerubia, directrice de recherche INRIA et responsable du projet ARIANA, et Xavier Descombes, chargé de recherche INRIA, et sont, en partie, financés par le CNES.

Les processus ponctuels marqués sont des outils de géométrie stochastique très prometteurs pour le traitement de l'image et les problèmes d'extraction d'objets en télédétection. On peut ainsi citer différentes applications développées au sein du projet Ariana, telles que l'extraction des réseaux linéiques (routiers ou hydrographiques), ou l'extraction d'objets surfaciques (empreintes de bâtiments, arbres). L'avantage de ces modèles, en comparaison aux classiques champs de Markov par exemple, est leur capacité à prendre en compte une information géométrique et donc à tirer pleinement parti des atouts de la haute résolution. Dans les applications étudiées, les processus ponctuels marqués sont des processus de Gibbs, définis par leur densité relativement à la mesure de Poisson. Cette densité s'exprime comme l'exponentielle d'une combinaison linéaire de plusieurs termes énergétiques. Tout d'abord une énergie d'attache aux données, qui contrôle la localisation des objets en fonction des observations. Ensuite, des informations a priori sont introduites par des termes énergétiques internes. Ces a priori traduisent les contraintes sur la géométrie des objets à détecter, ainsi que sur les interactions entre ces objets. Les poids associés à chacune de ces énergies internes sont appelés les « hyperparamètres ». Jusqu'à présent, ces hyperparamètres nécessitent d'être calibrés à la main. Comme leur valeur varie en fonction du type d'image à traiter et de l'application, cette phase de calibration peut s'avérer fastidieuse. Afin d'éviter cette étape de calibration et de développer des méthodes d'extraction entièrement automatiques, il convient donc d'estimer ces hyperparamètres.

Le travail de recherche peut alors se décomposer en deux temps.

Tout d'abord, l'estimation de ces hyperparamètres est effectuée dans le cas de données complètes. Dans ce cas la configuration, c'est-à-dire l'ensemble des points et leurs marques correspondant aux objets, est connue. Des méthodes d'estimation fondées sur la vraisemblance ou la pseudo- vraisemblance peuvent alors être appliquées. Cependant, la densité n'est connue qu'à une constante de normalisation près, et les estimateurs du maximum de vraisemblance ne peuvent être obtenus directement. La vraisemblance doit être approchée par des méthodes d'échantillonage préférentiel. Ceci conduit à simuler des poids d'importance à l'aide de méthode de type MCMC, la vraisemblance étant ensuite optimisée numériquement. Des approches de type pseudo-vraisemblance permettent d'éviter l'étape de simulation, la constante de normalisation n'intervenant plus dans l'expression de la pseudo-vraisemblance. Les performances de ces estimateurs sont alors étudiées.

Finalement, dans le cas général de données cachées, i.e. lorsque la configuration est inconnue et doit également être estimée, il n'existe pas d'expression analytique explicite de la densité associée aux observations. Des approches de type « Expectation-Maximization » peuvent néanmoins être utilisées, permettant d'obtenir des estimés des hyperparamètres.


Écrivez moi

Dernière mise à jour le 11 février 2008

Valid XHTML 1.0 Transitional