Voir le résumé
Les problèmes inverses liés à des processus physiques sont d'une grande importance dans la plupart des domaines liés au traitement du signal, tels que la tomographie, l'acoustique, les communications sans fil, le radar, l'imagerie médicale, pour n'en nommer que quelques uns. Dans le même temps, beaucoup de ces problèmes soulèvent des défis en raison de leur nature mal posée. Par ailleurs, les signaux émanant de phénomènes physiques sont souvent gouvernées par des lois s'exprimant sous la forme d'équations aux dérivées partielles (EDP) linéaires, ou, de manière équivalente, par des équations intégrales et leurs fonctions de Green associées. De plus, ces phénomènes sont habituellement induits par des singularités, apparaissant comme des sources ou des puits d'un champ vectoriel. Dans cette thèse, nous étudions en premier lieu le couplage entre de telles lois physiques et une hypothèse initiale de parcimonie des origines du phénomène physique. Ceci donne naissance à un concept de dualité des régularisations, formulées soit comme un problème d'analyse coparcimonieuse (menant à la représentation en EDP), soit comme une parcimonie à la synthèse équivalente à la précédente (lorsqu'on fait plutôt usage des fonctions de Green). Nous dédions une part significative de notre travail à la comparaison entre les approches de synthèse et d'analyse. Nous défendons l'idée qu'en dépit de leur équivalence formelle, leurs propriétés computationnelles sont très différentes. En effet, en raison de la parcimonie héritée par la version discrétisée de l'EDP (incarnée par l'opérateur d'analyse), l'approche coparcimonieuse passe bien plus favorablement à l'échelle que le problème équivalent régularisé par parcimonie à la synthèse. Nos constatations sont illustrées dans le cadre de deux applications : la localisation de sources acoustiques, et la localisation de sources de crises épileptiques à partir de signaux électro-encéphalographiques. Dans les deux cas, nous vérifions que l'approche coparcimonieuse démontre de meilleures capacités de passage à l'échelle, au point qu'elle permet même une interpolation complète du champ de pression dans le temps et en trois dimensions. De plus, dans le cas des sources acoustiques, l'optimisation fondée sur le modèle d'analyse \emph{bénéficie} d'une augmentation du nombre de données observées, ce qui débouche sur une accélération du temps de traitement, plus rapide que l'approche de synthèse dans des proportions de plusieurs ordres de grandeur. Nos simulations numériques montrent que les méthodes développées pour les deux applications sont compétitives face à des algorithmes de localisation constituant l'état de l'art. Pour finir, nous présentons deux méthodes fondées sur la parcimonie à l'analyse pour l'estimation aveugle de la célérité du son et de l'impédance acoustique, simultanément à l'interpolation du champ sonore. Ceci constitue une étape importante en direction de la mise en œuvre de nos méthodes en en situation réelle.