Le Nobel
Connexion
  • > Accueil >
  • InSAR MOI >
  • Thèse
Thèse
  • Sommaire
  • Contexte de l'étude
  • Chapitre 1
  • Chapitre 2
  • Chapitre 3
  • Chapitre 4
  • Chapitre 5
  • Chapitre 6
  • Chapitre 7
  • Chapitre 8
  • Chapitre 9
  • Chapitre 10
Toolbox MOI Matlab
Toolbox MOI Python
next up previous contents
Next: Étape 1 : exploration Up: Optimisation par algorithme de Previous: Optimisation par algorithme de   Contents

Principes

La méthode par proches voisins est inscrite dans le cadre de l'inférence bayésienne (se référer à [Tarantola (1987) ] pour plus de détails). Dans ce cadre, la solution bayésienne d'un problème inverse est la fonction de densité de probabilité a posteriori (PPD). Le but de la méthode par proches voisins est donc de rechercher une région de l'espace des paramètres pour laquelle les déplacements modélisés reproduisent convenablement les déplacements observés (faible $\chi^2$), plutôt que de trouver une seule solution ${\bf m}$ permettant de minimiser $\chi^2$.

Cette approche probabiliste revient à rechercher $P\left({\bf m} \vert {\bf d}\right)$, la probabilité du modèle ${\bf m}$ sachant que nous observons les déplacements ${\bf d}$. $P\left({\bf m} \vert {\bf d}\right)$ sera notée par la suite $P\left({\bf m}\right)$. Si $\chi^2$ a une distribution normale, alors $P\left({\bf m}\right)$ nous est donnée par :

\begin{equation} P\left({\bf m}\right) = k\exp{\left(-\frac{1}{2}\chi^2\left({\bf m}\right)\right)} \end{equation} (64)

[Tarantola (2005) , Fukushima et al.(2005) ] où $k$ est un facteur de normalisation.

On cherche donc ${\bf m}$ permettant de maximiser cette probabilité. Le modèle direct $F\left({\bf m }\right)$ est un modèle numérique, et ne permet pas d'établir une expression analytique de $P\left({\bf m}\right)$. La difficulté d'une inversion établie dans le cadre bayésien réside dans l'estimation de $P\left({\bf m}\right)$, définie dans un espace continu, à partir d'une estimation discrète de $\chi^2$.

Dès lors, l'estimation de la PPD $P\left({\bf m}\right)$ nécessite deux étapes : la première permettra d'estimer $\chi^2$ en explorant l'espace des paramètres, la seconde permettra d'avoir accès à $P\left({\bf m}\right)$ à partir de l'exploration réalisée, puis de déterminer le modèle moyen, ainsi que de quantifier les intervalles de confiance de tous les paramètres.


next up previous contents
Next: Étape 1 : exploration Up: Optimisation par algorithme de Previous: Optimisation par algorithme de   Contents
kunos 2014-07-01