Tri :
Date
Titre
Auteur
|
|
Traitement du signal et télécommunications
/ 05-03-2014
Wu Ke
Voir le résumé
Voir le résumé
Les travaux de cette Thèse porte sur des éléments de guidage d'une thérapie focale du cancer de la prostate par Ultrasons Focalisés Haute Intensité (HIFU). Actuellement l'IRM est la seule technique d'imagerie qui permet de localiser la tumeur dans la prostate. Par contre, la tumeur n'est pas visible dans l'échographie qui est l'imagerie utilisée pour la planification et le guidage de la thérapie. L'objectif de la Thèse est de proposer des techniques de recalage de l'IRM T2 vers l'échographie. Deux approches ont été explorées : 1) Une approche basée région et plus particulièrement une méthode de descripteurs de la texture en échographie basée sur des moments invariants en rotation et en échelle. Ces descripteurs sont sensibles à la distribution du speckle quelle que soit son échelle ou son orientation. Certains de ces descripteurs permettent de caractériser les régions présentant une même distribution de speckle, mais nous avons également constaté que certains autres de ces descripteurs étaient sensibles aux contours de ces régions. Cette caractéristique nous semble très utile pour les méthodes de segmentation intégrant à la fois l'information de contours et l'information de régions (contours actifs, graph cut, etc.). 2) Une approche basée surface. Nous avons adapté une méthode de Définition Optimale de la Surface (OSD) à la segmentation de la prostate en IRM T2. Et plus particulièrement une segmentation concurrente de la prostate, de la vessie et du rectum par OSD multi-objets. Les surfaces de la prostate extraites du volume échographique et du volume IRM T2 nous ont permis d'envisager une première tentative de recalage surface/surface par la méthode des démons.
|
|
Traitement du signal et télécommunications
/ 27-05-2014
Betancur Acevedo Julian Andrés
Voir le résumé
Voir le résumé
Cette thèse porte sur la caractérisation cardiaque, qui représente un enjeu méthodologique et clinique important, à la fois pour améliorer le diagnostic des pathologies et optimiser les moyens de traitement. Des méthodes de recalage et de fusion de données sont proposées pour amener dans un même référentiel des images IRM, scanner, échographiques et électro-anatomiques et ainsi décrire le cœur suivant des caractéristiques anatomiques, électriques, mécaniques et tissulaires. Les méthodes proposées pour recaler des données multimodales reposent sur deux processus principaux : l'alignement temporel et le recalage spatial. Les dimensions temporelles des images considérées sont mises en synchronisées par une méthode de déformation temporelle dynamique adaptative. Celle-ci permet de compenser les modifications temporelles non-linéaires entre les différentes acquisitions. Pour le recalage spatial, des méthodes iconiques ont été développées pour corriger les artefacts de mouvements dans les séquences ciné-IRM, pour recaler les séquences ciné-IRM avec les séquences d'IRM de rehaussement tardif et pour recaler les ciné-IRM avec les images scanner. D'autre part, une méthode basée contours, développée dans un précédent travail, a été améliorée pour prendre en compte des acquisitions échographiques multi-vues. Ces méthodes ont été évaluées sur données réelles pour sélectionner les métriques les plus adaptées et pour quantifier les performances des approches iconiques et pour estimer la précision du recalage entre échographies et ciné-IRM. Ces méthodes sont appliquées à la caractérisation de cardiomyopathies hypertrophiques (CMH) et d'asynchronismes cardiaques. Pour la CMH, l'objectif était de mieux interpréter les données échographiques par la fusion de l'information de fibrose issue de l'IRM de rehaussement tardif avec l'information mécanique issue de l'échographie de speckle tracking. Cette analyse a permis d'évaluer le strain régional en tant qu'indicateur de la présence locale de fibrose. Concernant l'asynchronisme cardiaque, nous avons établi une description du couplage électromécanique local du ventricule gauche par la fusion de données échographiques, électro-anatomiques, scanner et, dans les cas appropriés, d'IRM de rehaussement tardif. Cette étude de faisabilité ouvre des perspectives pour l'utilisation de nouveaux descripteurs pour la sélection des sites de stimulation optimaux pour la thérapie de resynchronisation cardiaque.
|
|
Traitement du signal et télécommunications
/ 16-06-2014
Ospina Arango Juan David
Voir le résumé
Voir le résumé
La radiothérapie externe (EBRT en anglais pour External Beam Radiotherapy) est l'un des traitements référence du cancer de prostate. Les objectifs de la radiothérapie sont, premièrement, de délivrer une haute dose de radiations dans la cible tumorale (prostate et vésicules séminales) afin d'assurer un contrôle local de la maladie et, deuxièmement, d'épargner les organes à risque voisins (principalement le rectum et la vessie) afin de limiter les effets secondaires. Des modèles de probabilité de complication des tissus sains (NTCP en anglais pour Normal Tissue Complication Probability) sont nécessaires pour estimer sur les risques de présenter des effets secondaires au traitement. Dans le contexte de la radiothérapie externe, les objectifs de cette thèse étaient d'identifier des paramètres prédictifs de complications rectales et vésicales secondaires au traitement; de développer de nouveaux modèles NTCP permettant l'intégration de paramètres dosimétriques et de paramètres propres aux patients; de comparer les capacités prédictives de ces nouveaux modèles à celles des modèles classiques et de développer de nouvelles méthodologies d'identification de motifs de dose corrélés à l'apparition de complications. Une importante base de données de patients traités par radiothérapie conformationnelle, construite à partir de plusieurs études cliniques prospectives françaises, a été utilisée pour ces travaux. Dans un premier temps, la fréquence des symptômes gastro-intestinaux et génito-urinaires a été décrite par une estimation non paramétrique de Kaplan-Meier. Des prédicteurs de complications gastro-intestinales et génito-urinaires ont été identifiés via une autre approche classique : la régression logistique. Les modèles de régression logistique ont ensuite été utilisés dans la construction de nomogrammes, outils graphiques permettant aux cliniciens d'évaluer rapidement le risque de complication associé à un traitement et d'informer les patients. Nous avons proposé l'utilisation de la méthode d'apprentissage de machine des forêts aléatoires (RF en anglais pour Random Forests) pour estimer le risque de complications. Les performances de ce modèle incluant des paramètres cliniques et patients, surpassent celles des modèle NTCP de Lyman-Kutcher-Burman (LKB) et de la régression logistique. Enfin, la dose 3D a été étudiée. Une méthode de décomposition en valeurs populationnelles (PVD en anglais pour Population Value Decomposition) en 2D a été généralisée au cas tensoriel et appliquée à l'analyse d'image 3D. L'application de cette méthode à une analyse de population a été menée afin d'extraire un motif de dose corrélée à l'apparition de complication après EBRT. Nous avons également développé un modèle non paramétrique d'effets mixtes spatio-temporels pour l'analyse de population d'images tridimensionnelles afin d'identifier une région anatomique dans laquelle la dose pourrait être corrélée à l'apparition d'effets secondaires.
|
|
Biologie et sciences de la santé
/ 17-06-2014
Martins Pedro Raphaël
Voir le résumé
Voir le résumé
La fibrillation atriale (FA) est l’arythmie soutenue la plus fréquente ; elle entraine une majoration significative de la morbidité et de la mortalité. Les mécanismes qui en sont responsables sont encore incomplètement connus, et sa prise en charge n’est pas optimale. Afin de mieux comprendre la physiopathologie de la FA, nous avons mené différents travaux sur des coeurs de moutons isolés et perfusés par un système de Langendorff mais également en créant un modèle chronique de FA persistante de longue durée. Dans un modèle ovin de FA persistante, nous avons ainsi démontré que la fréquence dominante (DF) de la FA augmentait progressivement pendant les premières semaines de l’arythmie, alors que les épisodes étaient paroxystiques, phénomène en rapport avec le raccourcissement de la durée du potentiel d’action secondaire au remodelage électrophysiologique. La DF se stabilisait dès lors que la FA devenait persistante, une fois le remodelage électrophysiologique maximal. L’accélération de la DF (dDF/dt) était significativement corrélée au temps nécessaire à la transition vers la FA persistante. Le remodelage structurel n’apparaissait que secondairement, une fois l’arythmie devenue persistante. Sur le plan thérapeutique, nous avons étudié les mécanismes anti-arythmiques de la chloroquine (bloqueur d’IK1) et de la ranolazine (bloqueur d’INa), molécules entrainant un ralentissement de la fréquence de rotation des rotors, une diminution de la DF et un retour en rythme sinusal. Ces travaux nous ont permis de mieux appréhender le rôle des ces courants ioniques dans le maintien de la FA. Enfin, nous avons démontré l’efficacité de l’ablation de la FA en utilisant le cryoballon (CB) de deuxième génération, efficacité grevée d’un taux de parésie du nerf phrénique élevé, dont nous avons pu prédire la survenue à l’aide d’un prédicteur simple, la distance entre le bord du CB et la cathéter permettant de stimuler le nerf phrénique pendant l’application. Une meilleure compréhension des mécanismes à l’origine de l’initiation et du maintien de cette arythmie, ainsi qu’une meilleure prise en charge thérapeutique permettraient d’améliorer la qualité de vie des patients et d’en diminuer le taux de complications.
|
|
Traitement du signal et télécommunications
/ 17-06-2014
Dréan Gaël
Voir le résumé
Voir le résumé
Ces travaux de thèse s’inscrivent dans le contexte de la prédiction de la toxicité en radiothérapie du cancer de la prostate. Dans l'objectif d'analyser les corrélations spatiales entre la dose et les effets secondaires cette problématique est abordée dans un cadre d'analyse de population. La mise en correspondance inter-individus de l'anatomie et de la distribution de dose planifiée soulève des difficultés liées aux fortes variabilités anatomiques et au faible contraste des images CT considérées. Nous avons envisagé différentes stratégies de recalage non-rigide exploitant les informations relatives aux structures anatomiques, aux combinaisons intensité-structure, ou aux relations inter-structures. Les méthodes proposées s'appuient notamment sur l’utilisation de descripteurs structurels des organes tels que les cartes de distances euclidiennes ou du champ scalaire solution de l’équation de Laplace. Ces méthodes ont permis d'améliorer significativement la précision de la mise en correspondance, tant au niveau anatomique que dosimétrique. Les plus performantes ont été utilisées pour analyser une population de 118 individus. Les comparaisons statistiques des distributions de dose entre les patients souffrant ou non de saignements rectaux ont permis d’identifier une sous-région du rectum où la dose semble corrélée à la toxicité. La sous-région rectale identifiée apparaît potentiellement impliquée et hautement prédictive du risque de saignement. L'approche proposée permet d’améliorer les performances des modèles mathématiques de prédiction de la toxicité.
|
|
Traitement du Signal et Télécommunications
/ 02-07-2014
Zhang Pengcheng
Voir le résumé
Voir le résumé
Ces travaux portent sur l'optimisation de la planification en radiothérapie prostatique et ORL. De façon à améliorer le calcul dosimétrique, la méthode de calcul de dose dite « Pencil beam » a d'abord été modifiée en considérant un système de coordonnées sphériques, en améliorant le mode de correction des hétérogénéités et en accélérant le calcul en effectuant les opérations de convolution grâce à la transformée de Fourier rapide. L'approche proposée a été comparée aux méthodes classiques en utilisant différents fantômes numériques. Cette évaluation a démontré la précision de la méthode proposée ainsi que l'accélération des calculs d'un facteur 40 par la méthode utilisant la transformée de Fourier, au prix toutefois d'une dégradation de la précision des résultats. Dans un second temps, l'incorporation de critères biologiques lors de l'optimisation du plan de traitement a été mise en œuvre à travers l'équivalent convexe du modèle NTCP (probabilité de toxicité des tissus sains) et son optimisation. L'évaluation de cette approche a été réalisée sur les données de dix patients traités pour un cancer de la prostate et a montré que la méthode proposée produit des planifications cliniquement satisfaisantes avec de meilleurs résultats en termes de toxicité prédite. Une méthode de compensation des incertitudes géométriques survenant lors du traitement a aussi été proposée, reposant sur une décomposition en séries de Taylor et un filtre de Butterworth. Son évaluation a montré son efficacité en termes de réduction des oscillations de haute fréquence ainsi que de présence de points chauds et froids. Enfin, dans un contexte de radiothérapie adaptative en ORL, une étude permettant d'identifier le scénario optimal de replanification, c'est-à-dire le nombre et les moments des replanifications, a été menée. Les critères de comparaison considérés reposaient sur le calcul de la dose cumulée reçue notamment par les parotides lors du traitement complet. L'efficacité des replanifications a ainsi été démontrée, avec par exemple une diminution du risque de toxicité de 9% pour le scénario optimal. Les perspectives de ce travail concernent la combinaison de ces méthodes dans un processus complet de planification pour évaluer leur impact dans un contexte clinique.
|
|
Traitement du signal et télécommunications
/ 09-10-2014
Hajipour Sardouie Sepideh
Voir le résumé
Voir le résumé
Lorsque l'on enregistre l'activité cérébrale en électroencéphalographie (EEG) de surface, le signal d'intérêt est fréquemment bruité par des activités différentes provenant de différentes sources de bruit telles que l'activité musculaire. Le débruitage de l'EEG est donc une étape de pré-traitement important dans certaines applications, telles que la localisation de source. Dans cette thèse, nous proposons six méthodes permettant la suppression du bruit de signaux EEG dans le cas particulier des activités enregistrées chez les patients épileptiques soit en période intercritique (pointes) soit en période critique (décharges). Les deux premières méthodes, qui sont fondées sur la décomposition généralisée en valeurs propres (GEVD) et sur le débruitage par séparation de sources (DSS), sont utilisées pour débruiter des signaux EEG épileptiques intercritiques. Pour extraire l'information a priori requise par GEVD et DSS, nous proposons une série d'étapes de prétraitement, comprenant la détection de pointes, l'extraction du support des pointes et le regroupement des pointes impliquées dans chaque source d'intérêt. Deux autres méthodes, appelées Temps Fréquence (TF) -GEVD et TF-DSS, sont également proposées afin de débruiter les signaux EEG critiques. Dans ce cas on extrait la signature temps-fréquence de la décharge critique par la méthode d'analyse de corrélation canonique. Nous proposons également une méthode d'Analyse en Composantes Indépendantes (ICA), appelé JDICA, basée sur une stratégie d'optimisation de type Jacobi. De plus, nous proposons un nouvel algorithme direct de décomposition canonique polyadique (CP), appelé SSD-CP, pour calculer la décomposition CP de tableaux à valeurs complexes. L'algorithme proposé est basé sur la décomposition de Schur simultanée (SSD) de matrices particulières dérivées du tableau à traiter. Nous proposons également un nouvel algorithme pour calculer la SSD de plusieurs matrices à valeurs complexes. Les deux derniers algorithmes sont utilisés pour débruiter des données intercritiques et critiques. Nous évaluons la performance des méthodes proposées pour débruiter les signaux EEG (simulés ou réels) présentant des activités intercritiques et critiques épileptiques bruitées par des artéfacts musculaires. Dans le cas des données simulées, l'efficacité de chacune de ces méthodes est évaluée d'une part en calculant l'erreur quadratique moyenne normalisée entre les signaux originaux et débruités, et d'autre part en comparant les résultats de localisation de sources, obtenus à partir des signaux non bruités, bruités, et débruités. Pour les données intercritiques et critiques, nous présentons également quelques exemples sur données réelles enregistrées chez des patients souffrant d'épilepsie partielle.
|
|
Traitement du signal et télécommunications
/ 10-11-2014
Wang Lu
Voir le résumé
Voir le résumé
La Diagonalisation Conjointe par Congruence (DCC) d'un ensemble de matrices apparaît dans nombres de problèmes de traitement du signal, tels qu'en Analyse en Composantes Indépendantes (ACI). Les développements récents en ACI sous contrainte de non négativité de la matrice de mélange, nommée ACI semi-non négative, permettent de tirer profit d'une modélisation physique réaliste des phénomènes observés tels qu'en audio, en traitement d'image ou en ingénierie biomédicale. Par conséquent, durant cette thèse, l'objectif principal était non seulement de concevoir et développer des algorithmes d'ACI semi-non négative basés sur de nouvelles méthodes de DCC non négative où la matrice de passage recherchée est non négative, mais également d'illustrer leur intérêt dans le cadre d'applications pratiques de séparation de sources. Les algorithmes de DCC non négative proposés exploitent respectivement deux stratégies fondamentales d'optimisation. La première famille d'algorithmes comprend cinq méthodes semi-algébriques, reposant sur la méthode de Jacobi. Cette famille prend en compte la non négativité par un changement de variable carré, permettant ainsi de se ramener à un problème d'optimisation sans contrainte. L'idée générale de la méthode de Jacobi est de i) factoriser la matrice recherchée comme un produit de matrices élémentaires, chacune n'étant définie que par un seul paramètre, puis ii) d'estimer ces matrices élémentaires l'une après l'autre dans un ordre spécifique. La deuxième famille compte un seul algorithme, qui utilise la méthode des directions alternées. Un tel algorithme est obtenu en minimisant successivement le Lagrangien augmenté par rapport aux variables et aux multiplicateurs. Les résultats expérimentaux sur les matrices simulées montrent un gain en performance des algorithmes proposés par comparaison aux méthodes DCC classiques, qui n'exploitent pas la contrainte de non négativité. Il semble que nos méthodes peuvent fournir une meilleure précision d'estimation en particulier dans des contextes difficiles, par exemple, pour de faibles valeurs de rapport signal sur bruit, pour un petit nombre de matrices à diagonaliser et pour des niveaux élevés de cohérence de la matrice de passage. Nous avons ensuite montré l'intérêt de nos approches pour la résolution de problèmes pratiques de séparation aveugle de sources. Pour n'en citer que quelques-uns, nous sommes intéressés à i) l'analyse de composés chimiques en spectroscopie par résonance magnétique, ii) l'identification des profils spectraux des harmoniques (par exemple, de notes de piano) d'un morceau de musique mono-canal par décomposition du spectrogramme, iii) l'élimination partielle du texte se trouvant au verso d'une feuille de papier fin. Ces applications démontrent la validité et l'intérêt de nos algorithmes en comparaison des méthodes classique de séparation aveugle de source.
|
|
Traitement du signal et télécommunications
/ 22-12-2014
Khodor Nadine
Voir le résumé
Voir le résumé
La syncope est une perte brusque de conscience. Bien qu'elle ne soit pas généralement mortelle, elle présente un impact économique sur le système de soins et sur la vie personnelle de personnes en souffrant. L'objet de la présente étude est de réduire la durée du test clinique (environ 1 heure) et d'éviter aux patients de développer une syncope en la prédisant. L'ensemble de travail s'inscrit dans une démarche de datamining associant l'extraction de paramètres, la sélection des variables et la classification. Trois approches complémentaires sont proposées, la première exploite des méthodes d'analyse non-linéaires de séries temporelles extraites de signaux acquises pendant le test, la seconde s'intéresse aux relations cardiovasculaires en proposant des indices dans le plan temps-fréquence et la troisième, plus originale, prendre en compte leurs dynamiques temporelles.
|
|
Traitement du signal et télécommunications
/ 18-06-2015
Duché Quentin
Voir le résumé
Voir le résumé
Les travaux réalisés dans cette thèse se situent à l'interface des domaines de l'acquisition en imagerie par résonance magnétique (IRM) et du traitement d'image pour l'analyse automatique des structures cérébrales. La mesure de modifications structurelles telles que l'atrophie corticale nécessite l'application d'algorithmes de traitement d'image. Ceux-ci doivent compenser les artefacts en IRM tels que l'inhomogénéité du signal ou les effets de volume partiel (VP) pour permettre la segmentation des tissus cérébraux puis l'estimation d'épaisseur corticale. Nous proposons une nouvelle modélisation de VP proche de la physique de l'acquisition baptisée modèle bi-exponentiel qui vient concurrencer le traditionnel modèle linéaire. Il nécessite l'utilisation de deux images de contrastes différents parfaitement recalées. Ce modèle a été validé sur des simulations et des fantômes physique et numérique dans un premier temps. Parallèlement, la récente séquence MP2RAGE permet d'acquérir deux images co-recalées par acquisition et leur combinaison aboutit à l'obtention d'une image insensible aux inhomogénéités du signal et d'une carte de T1 des tissus imagés. Nous avons testé notre modèle sur des données in vivo MP2RAGE et avons montré que l'application du modèle linéaire de VP conduit à une sous-estimation systématique de la substance grise à l'échelle du voxel. Ces erreurs se propagent à l'estimation d'épaisseur corticale, biomarqueur très sensible aux effets de VP. Nos résultats plaident en faveur de l'hypothèse suivante : la modélisation de VP pour les images MP2RAGE doit être différente de celle employée pour des images obtenues avec des séquences plus classiques. Le modèle bi-exponentiel est une solution adaptée à cette séquence particulière.
|
|