Déconvolution

SismologieEdit

Le concept de déconvolution a eu une application précoce en sismologie de réflexion. En 1950, Enders Robinson était un étudiant diplômé au MIT. Il a travaillé avec d’autres personnes au MIT, comme Norbert Wiener, Norman Levinson et l’économiste Paul Samuelson, pour développer le « modèle convolutionnel » d’un sismogramme de réflexion. Ce modèle suppose que le sismogramme enregistré s(t) est la convolution d’une fonction de réflectivité terrestre e(t) et d’une onde sismique w(t) provenant d’une source ponctuelle, où t représente le temps d’enregistrement. Ainsi, notre équation de convolution est

s ( t ) = ( e ∗ w ) ( t ) . {\displaystyle s(t)=(e*w)(t).\,}

s(t) = (e * w)(t). \,

Le sismologue s’intéresse à e, qui contient des informations sur la structure de la Terre. Par le théorème de convolution, cette équation peut être transformée par Fourier en

S ( ω ) = E ( ω ) W ( ω ) {\displaystyle S(\omega )=E(\omega )W(\omega )\,}

S(\omega) = E(\omega)W(\omega) \,

dans le domaine de fréquence, où ω {\displaystyle \omega }

\omega

est la variable de fréquence. En supposant que la réflectivité est blanche, on peut supposer que le spectre de puissance de la réflectivité est constant, et que le spectre de puissance du sismogramme est le spectre de l’ondelette multiplié par cette constante. Ainsi, | S ( ω ) | ≈ k | W ( ω ) | . {\displaystyle |S(\omega )|\approx k|W(\omega )|.\,}

|S(\omega)| \approx k|W(\omega)|. \,

Si l’on suppose que l’ondelette est à phase minimale, on peut la récupérer en calculant l’équivalent à phase minimale du spectre de puissance que l’on vient de trouver. La réflectivité peut être récupérée en concevant et en appliquant un filtre de Wiener qui façonne l’ondelette estimée en une fonction delta de Dirac (c’est-à-dire un pic). Le résultat peut être vu comme une série de fonctions delta mises à l’échelle et décalées (bien que cela ne soit pas mathématiquement rigoureux) :

e ( t ) = ∑ i = 1 N r i δ ( t – τ i ) , {\displaystyle e(t)=\sum _{i=1}^{N}r_{i}\delta (t-\tau _{i}),}

{{displaystyle e(t)=\sum _{i=1}^{N}r_{i}\delta (t-\tau _{i}),}

où N est le nombre d’événements de réflexion, r i {\displaystyle r_{i}}

r_{i}

sont les coefficients de réflexion, t – τ i {\displaystyle t-\tau _{i}}

{\displaystyle t-\tau _{i}}

sont les temps de réflexion de chaque événement, et δ {\displaystyle \delta }

\delta

est la fonction delta de Dirac.

En pratique, étant donné que nous avons affaire à des ensembles de données bruyants, à bande passante finie, à longueur finie et à échantillonnage discret, la procédure ci-dessus ne donne qu’une approximation du filtre nécessaire pour déconvoluer les données. Cependant, en formulant le problème comme la solution d’une matrice Toeplitz et en utilisant la récursion de Levinson, nous pouvons relativement rapidement estimer un filtre avec la plus petite erreur quadratique moyenne possible. Nous pouvons également effectuer la déconvolution directement dans le domaine fréquentiel et obtenir des résultats similaires. Cette technique est étroitement liée à la prédiction linéaire.

Optique et autres imageriesEdit

Exemple d’une image de microscope déconvoluée.

En optique et en imagerie, le terme « déconvolution » est spécifiquement utilisé pour désigner le processus d’inversion de la distorsion optique qui a lieu dans un microscope optique, un microscope électronique, un télescope ou un autre instrument d’imagerie, créant ainsi des images plus claires. Elle est généralement effectuée dans le domaine numérique par un algorithme logiciel, dans le cadre d’une suite de techniques de traitement d’images de microscope. La déconvolution est également pratique pour rendre plus nettes les images qui souffrent de mouvements rapides ou de secousses pendant la capture. Les premières images du télescope spatial Hubble étaient déformées par un miroir défectueux et ont été affinées par déconvolution.

La méthode habituelle consiste à supposer que le chemin optique à travers l’instrument est optiquement parfait, convolué avec une fonction d’étalement de point (PSF), c’est-à-dire une fonction mathématique qui décrit la distorsion en termes de chemin qu’une source ponctuelle théorique de lumière (ou d’autres ondes) emprunte à travers l’instrument. En général, une telle source ponctuelle apporte une petite zone de flou à l’image finale. Si cette fonction peut être déterminée, il s’agit alors de calculer son inverse ou sa fonction complémentaire, et de convoluer l’image acquise avec celle-ci. Le résultat est l’image originale, non déformée.

En pratique, trouver la vraie PSF est impossible, et on utilise généralement une approximation de celle-ci, calculée théoriquement ou basée sur une certaine estimation expérimentale en utilisant des sondes connues. Les optiques réelles peuvent également avoir des PSF différents à différents emplacements focaux et spatiaux, et le PSF peut être non linéaire. La précision de l’approximation du PSF déterminera le résultat final. Différents algorithmes peuvent être utilisés pour obtenir de meilleurs résultats, au prix d’une plus grande intensité de calcul. Comme la convolution originale élimine des données, certains algorithmes utilisent des données supplémentaires acquises à des points focaux proches pour compenser une partie des informations perdues. La régularisation dans les algorithmes itératifs (comme dans les algorithmes de maximisation des attentes) peut être appliquée pour éviter les solutions irréalistes.

Lorsque la PSF est inconnue, il peut être possible de la déduire en essayant systématiquement différentes PSF possibles et en évaluant si l’image s’est améliorée. Cette procédure est appelée déconvolution aveugle. La déconvolution aveugle est une technique de restauration d’image bien établie en astronomie, où la nature ponctuelle des objets photographiés expose la PSF, ce qui la rend plus réalisable. Elle est également utilisée en microscopie de fluorescence pour la restauration d’images, et en imagerie spectrale de fluorescence pour la séparation spectrale de plusieurs fluorophores inconnus. L’algorithme itératif le plus courant à cet effet est l’algorithme de déconvolution de Richardson-Lucy ; la déconvolution de Wiener (et les approximations) sont les algorithmes non itératifs les plus courants.

L’image THz haute résolution est obtenue par déconvolution de l’image THz et de la PSF THz modélisée mathématiquement. (a) Image THz d’un circuit intégré (IC) avant rehaussement ; (b) PSF THz modélisé mathématiquement ; (c) Image THz haute résolution qui est obtenue comme résultat de la déconvolution de l’image THz montrée en (a) et du PSF qui est montré en (b) ; (d) L’image radiographique haute résolution confirme la précision des valeurs mesurées.

Pour certains systèmes d’imagerie spécifiques tels que les systèmes térahertz pulsés par laser, la PSF peut être modélisée mathématiquement. En conséquence, comme le montre la figure, la déconvolution de la PSF modélisée et de l’image térahertz peut donner une représentation à plus haute résolution de l’image térahertz.

RadioastronomieModification

Lorsqu’on effectue une synthèse d’image en radio interférométrie, un type spécifique de radioastronomie, une étape consiste à déconvoluer l’image produite avec le « dirty beam », qui est un nom différent pour la fonction d’étalement du point. Une méthode couramment utilisée est l’algorithme CLEAN.

Spectres d’absorptionEdit

La déconvolution a été largement appliquée aux spectres d’absorption. L’algorithme de Van Cittert (article en allemand) peut être utilisé.

Aspects de la transformée de FourierEdit

La déconvolution correspond à la division dans le codomaine de Fourier. Cela permet à la déconvolution d’être facilement appliquée avec des données expérimentales qui sont soumises à une transformée de Fourier. Un exemple est la spectroscopie RMN où les données sont enregistrées dans le domaine temporel, mais analysées dans le domaine fréquentiel. La division des données du domaine temporel par une fonction exponentielle a pour effet de réduire la largeur des lignes de Lorenzian dans le domaine fréquentiel.

Laisser un commentaire