Tri :
Date
Titre
Auteur
|
|
Signal, Image et Vision
/ 08-11-2019
Rizkallah Jennifer
Voir le résumé
Voir le résumé
Le cerveau humain est un réseau complexe. Une fonction cognitive efficace est garantie lorsque le cerveau reconfigure d’une manière dynamique l'organisation de son réseau durant le temps. Les études ont montré que la plupart des troubles cérébraux, y compris les maladies neuro-dégénératives et mentales, se caractérisent par des altérations du réseau cérébral structurel et/ou fonctionnel. Il existe donc une forte demande pour des nouvelles méthodes non invasives, basées sur les réseaux et faciles à utiliser, permettant d'identifier ces réseaux pathologiques. La méthode appelée connectivité de sources en électroencéphalographie (EEG) permet de suivre la dynamique des réseaux cérébraux large échelle avec une excellente résolution temporelle. C’est dans ce contexte que s’inscrivent mes travaux de thèse qui prolongent les développements méthodologiques et cliniques de notre équipe de recherche sur la connectivité fonctionnelle au niveau des sources cérébrales. L’objectif de mes travaux de thèse est double : i) progresser sur les aspects méthodologiques de la méthode connectivité de sources en EEG et ii) utiliser cette méthode dans une application clinique en lien avec les troubles de la conscience. Ma thèse se divise donc en deux grandes parties, avec deux études réalisées dans chaque partie. Dans la première partie (aspects méthodologiques), j’ai abordé, dans une première étude, la capacité de la méthode connectivité de sources en EEG à suivre les altérations dynamiques des réseaux cérébraux durant une tâche cognitive rapide. Puis dans une seconde étude, j’ai testé l’effet du problème de l’étalement spatial des sources sur la reconstruction des réseaux fonctionnels. Dans la deuxième partie (applications cliniques), j’ai analysé les altérations dans les réseaux cérébraux chez les patients souffrant d’un désordre de la conscience, en utilisant une analyse statique pour la première étude et une analyse dynamique pour la deuxième étude.
|
|
Traitement du signal et télécommunications
/ 29-06-2016
Fargeas Aureline
Voir le résumé
Voir le résumé
Le cancer de la prostate est l'un des cancers les plus fréquents chez l'homme. L'un des traitements standard est la radiothérapie externe, qui consiste à délivrer un rayonnement d'ionisation à une cible clinique, en l'occurrence la prostate et les vésicules séminales. Les objectifs de la radiothérapie externe sont la délivrance d'une dose d'irradiation maximale à la tumeur tout en épargnant les organes voisins (principalement le rectum et la vessie) pour éviter des complications suite au traitement. Comprendre les relations dose/toxicité est une question centrale pour améliorer la fiabilité du traitement à l'étape de planification inverse. Des modèles prédictifs de toxicité pour le calcul des probabilités de complications des tissus sains (normal tissue complication probability, NTCP) ont été développés afin de prédire les événements de toxicité en utilisant des données dosimétriques. Les principales informations considérées sont les histogrammes dose-volume (HDV), qui fournissent une représentation globale de la distribution de dose en fonction de la dose délivrée par rapport au pourcentage du volume d'organe. Cependant, les modèles actuels présentent certaines limitations car ils ne sont pas totalement optimisés; la plupart d'entre eux ne prennent pas en compte les informations non-dosimétrique (les caractéristiques spécifiques aux patients, à la tumeur et au traitement). De plus, ils ne fournissent aucune compréhension des relations locales entre la dose et l'effet (dose-espace/effet relations) car ils n'exploitent pas l'information riche des distributions de planification de dose 3D. Dans un contexte de prédiction de l'apparition de saignement rectaux suite au traitement du cancer de la prostate par radiothérapie externe, les objectifs de cette thèse sont : i) d'extraire des informations pertinentes à partir de l'HDV et des variables non-dosimétriques, afin d'améliorer les modèles NTCP existants et ii) d'analyser les corrélations spatiales entre la dose locale et les effets secondaires permettant une caractérisation de la distribution de dose 3D à l'échelle de l'organe. Ainsi, les stratégies visant à exploiter les informations provenant de la planification (distributions de dose 3D et HDV) ont été proposées. Tout d'abord, en utilisant l'analyse en composantes indépendantes, un nouveau modèle prédictif de l'apparition de saignements rectaux, combinant d'une manière originale l'information dosimétrique et non-dosimétrique, a été proposé. Deuxièmement, nous avons mis au point de nouvelles approches visant à prendre conjointement profit des distributions de dose de planification 3D permettant de déceler la corrélation subtile entre la dose locale et les effets secondaires pour classer et/ou prédire les patients à risque de souffrir d'un saignement rectal, et d'identifier les régions qui peuvent être à l'origine de cet événement indésirable. Plus précisément, nous avons proposé trois méthodes stochastiques basées sur analyse en composantes principales, l'analyse en composantes indépendantes et la factorisation discriminante en matrices non-négatives, et une méthode déterministe basée sur la décomposition polyadique canonique de tableaux d'ordre 4 contenant la dose planifiée. Les résultats obtenus montrent que nos nouvelles approches présentent de meilleures performances générales que les méthodes prédictives de la littérature.
|
|
Signal, image, vision
/ 22-10-2021
Taheri Nasrin
Voir le résumé
Voir le résumé
Nous introduisons une méthode de SAS pour débruiter les enregistrements EEG épileptiques. La suppression des artefacts musculaires des enregistrements épileptiques permet de localiser plus facilement les sources d'intérêt chez des patients souffrant d'épilepsie réfractaire. Plus précisément, les contractions de la tête au début de la décharge peuvent masquer l'activité critique rapide. Comme il existe une signature Temps-Fréquence (TF) unique, nous exploitons la contrainte de parcimonie des signaux dans le domaine TF en utilisant un dictionnaire TF de Gabor. L’exploitation de la parcimonie dans le domaine TF et d’une autocorrélation maximale des sources d’intérêt conduit à une nouvelle approche nommée Time-Frequency Sparse Source Separation (TF3S). Pour évaluer les performances de l'algorithme, des simulations et données réelles dans le cas d’activités intercritiques et critiques ont été utilisées. Nous avons comparé cette nouvelle méthode avec des approches de la littérature telles que CCA, JDICA et P-SAUD. Les résultats quantitatifs et qualitatifs montrent la supériorité de l'algorithme proposé tant dans le cas de l'activité intercritique que des décharges critiques. Nous introduisons également quelques méthodes de localisation de sources basées sur la décomposition de tenseurs. La délimitation des sources cérébrales épileptiques est formulée comme un problème de localisation de source cérébrale bien connu pour être mal posé. En effet, les biomarqueurs épileptiques peuvent être générés par un nombre infini de combinaisons de sources spatialement distribuées (étendues). Plusieurs méthodes ont été proposées au cours des deux dernières décennies pour régulariser ce problème.
|
|
Signal, Image, Vision
/ 03-11-2020
Péralta Maxime
Voir le résumé
Voir le résumé
La Stimulation Cérébrale Profonde (SCP) est une thérapie efficace pour traiter les maladies des mouvements anormaux, telle que la Maladie de Parkinson (MP). Le succès de la SCP dépend de nombreuses variables issues d’un grand nombre de modalités de données. Divers problèmes sont rencontrés tout au long de la prise en charge du patient, de sa sélection à la procédure elle-même et au suivi post-opératoire, dénotant un besoin urgent de développer des outils d’assistance informatique. Dans cette thèse, nous proposons deux systèmes, basés sur l’apprentissage machine, afin de résoudre deux problèmes cliniques concrets. Premièrement, nous proposons un outil capable d’aider les cliniciens dans le choix de sélection des patients et des cibles de stimulation. Notre méthode est capable de prédire les résultats cliniques (moteurs, neuropsychologiques, cognitifs, etc.) de la SCP à partir de biomarqueurs multimodaux préopératoires. Deuxièmement, nous proposons un outil permettant d’accélérer grandement la chirurgie en assistant la localisation du noyau cible via un traitement en temps réel du signal électrophysiologique provenant du cerveau du patient, à partir d’enregistrements par micro-électrodes d’une seconde seulement.
|
|
Signal, image, vision
/ 28-06-2022
Met-Montot Bertille
Voir le résumé
Voir le résumé
Le nombre de naissances prématurées est estimé à 15 millions par an dans le monde et représente 8% des naissances en France. Ces bébés sont pris en charge en Unités de Soins Intensifs Néonatales (USIN) et font l’objet d’une surveillance particulière du fait de l’immaturité de leurs organes et des complications qui peuvent en découler. De nombreuses études ont montré que l’analyse des pleurs de nourrissons permettait d’obtenir des informations sur leur état de santé et dans le cas des prématurés sur leur maturation. Si les premiers travaux se basaient sur une segmentation manuelle de pleurs souvent induits (généralement par la douleur), les travaux actuels s’intéressent aux pleurs spontanés, ce qui nécessite le développement de méthodes d’extraction automatiques. Cette approche non-invasive de monitoring apparaît comme extrêmement pertinente au vu de la fragilité des sujets étudiés. Cependant, l’environnement hospitalier particulièrement bruité où se déroulent les enregistrements complexifie grandement l’automatisation des méthodes. Dans ce contexte, et dans le cadre du projet européen Digi-NewB, l’objectif de ces travaux est de présenter une chaîne complète de traitements automatiques pour l’analyse des pleurs des prématurés enregistrés en USIN. Cette chaîne regroupe : i) une nouvelle approche de détection des pleurs composée d’une segmentation, réalisée à partir de la fusion de vidéos et de bandes son ; ii) une classification par deep-learning pour l’identification des pleurs parmi tous les sons segmentés (voix d’adultes, alarmes...) ; iii) l’estimation de la fréquence fondamentale des pleurs détectés par une nouvelle approche basée sur la détection de contours dans le spectrogramme. Le déploiement de la chaîne de traitements sur une base de données de pleurs enregistrés en USIN montre des résultats en accord avec ceux publiés dans la littérature. Cette validation est encourageante et annonce la possibilité d’observer automatiquement sur des grandes cohortes l’évolution des pleurs des prématurés, notamment en vue de caractériser leur développement.
|
|
Traitement du signal et télécommunications
/ 12-12-2016
Jalloul Nahed
Voir le résumé
Voir le résumé
Le travail présenté dans ce mémoire porte sur le développement d'un système de surveillance ambulatoire pour la détection de la dyskinésie induite par la Levodopa (LID) chez les patients de la maladie de Parkinson (PD). Le système est composé d’unités de mesure inertielle (IMUs) qui recueillent des signaux de mouvement chez des sujets sains et des patients parkinsoniens. Des méthodes différentes sont évaluées pour la détection de LID avec et sans classification des activités. Les données recueillies auprès des sujets sains sont utilisées pour concevoir un classificateur d'activité fiable. Par la suite, un algorithme qui effectue la classification des activités et la détection de la dyskinésie sur les données recueillies auprès de des patients parkinsoniens est proposé. Une nouvelle approche basée sur l'analyse de réseau complexe est également explorée et présente des résultats intéressants. Les méthodes de traitement développées ont été intégrées dans une plateforme complète d’analyse nommée PARADYSE.
|
|
Génie Biologique et Médical
/ 15-12-2015
Salvati Roberto
Voir le résumé
Voir le résumé
L'obésité est associée à une augmentation de la morbidité et de la mortalité liée à de nombreuses maladies, y compris le diabète de type 2, l'hypertension et des pathologies hépatiques menant à une surcharge lipidique d’origine non alcoolique. Récemment, l’imagerie par résonance magnétique (IRM) est devenue la méthode de choix pour la quantification non invasive de la graisse. Dans cette thèse, les méthodes d'IRM ont été étudiées sur un scanner préclinique de 4.7T in vitro (fantômes MR) et in vivo (souris). Deux algorithmes de quantifications de la graisse -la méthode de Dixon et l’algorithme IDEAL- ont été considérés. Les performances de l'algorithme IDEAL ont été analysées en fonction de propriétés des tissus (T2*, fraction de graisse et modèle spectral de la graisse), de paramètres d'acquisition IRM (temps d’écho, nombre d'échos) et de paramètres expérimentaux (SNR et carte de champ). Sur les fantômes, l'approche standard single-T2* IDEAL a montré certaines limites qui pourraient être surmontées en optimisant le nombre d'échos. Une nouvelle méthode, pour déterminer les valeurs de vérité terrain pour T2* de l'eau et pour T2* de la graisse, a été proposée. Pour les mesures in vivo, différentes analyses ont été effectuées en utilisant l'algorithme IDEAL sur le foie et les muscles. L'analyse statistique sur les mesures de ROI a montré que le choix optimal du nombre d'échos est égal à trois pour la quantification de la graisse et six ou plus pour la quantification du T2*. Les valeurs de la fraction de graisse, calculées avec l'algorithme IDEAL, étaient statistiquement comparables aux valeurs obtenues avec la méthode de Dixon. Enfin, un procédé pour générer des signaux de référence mimant les systèmes eau-graisse (Fat Virtual Phantom MRI), sans l'aide d'objets physiques, a été proposé. Ces fantômes virtuels, qui présentent des caractéristiques de bruit réalistes, représentent une alternative intéressante aux fantômes physiques pour fournir un signal de référence dans les mesures IRM.
|
|
Signal, image, vision
/ 25-01-2019
Xiang Wentao
Voir le résumé
Voir le résumé
Nos travaux portent sur la connectivité cérébrale entre des populations neuronales distantes impliquées dans les crises d'épilepsie, et ce à partir de la modélisation causale dynamique (DCM : dynamic causal modelling) dans sa version spectrale. Celle-ci est basée sur deux instances, (i) le modèle neuronal pour interpréter les signaux observés et leurs densités spectrales de puissance, (ii) l'inversion du modèle basée sur l'algorithme d'estimation-maximisation (EM) variationnel pour identifier les paramètres du modèle. L'approche DCM s'avérant sensible à l'initialisation des paramètres, une mauvaise estimation peut s'ensuivre. Pour y pallier, nous proposons deux variantes de l'algorithme DCM spectral, l'algorithme L-DCM basé sur un ajustement local de l'estimation à chaque initialisation et l'algorithme D-DCM basé sur un schéma de type recuit-simulé. Les trois approches sont évaluées à l'aide de deux types de modèle, un modèle basé sur la physiologie (PBM) et un modèle plus affiné en termes de liaisons entre sous-populations neuronales (cPBM), et sont comparées sur des signaux simulés et des signaux stéréoélectroencéphalographiques réels. Nos résultats prouvent non seulement l'efficacité des nouvelles approches mais confirment également l’avantage du cPBM par rapport au PBM en termes de complexité de calcul et de précision d'estimation. Dans un dernier temps, nous nous focalisons sur la lenteur de l'algorithme EM variationnel liée à la méthode de Gauss-Newton employée. Une technique de recherche linéaire optimale (ELS : exact line search) est proposée, consistant à calculer, à chaque itération de l’algorithme itératif, le pas optimal à réaliser dans la direction de plus grande pente. La faisabilité de cette approche est envisagée dans le contexte de mélanges de gaussiennes. Les résultats obtenus sur signaux simulés et réels attestent l'efficacité du schéma proposé lorsqu'il est appliqué à l'algorithme EM conventionnel, mais aussi à d'autres techniques comme l'algorithme du gradient conjugué. Ces résultats préliminaires sont une perspective pour une future extension de l'approche DCM.
|
|
Biomedical engineering e-monitoring solutions
/ 30-06-2020
Lazazzera Remo
Voir le résumé
Voir le résumé
Ce manuscrit est le résultat d'un travail collaboratif entre la start-up Farasha Labs (Cesson-Sevigné, France) et le Laboratoire de Traitement du Signal et de l'Image (LTSI, Rennes, France). Les travaux ont été réalisés au sein de l'entreprise pour la première année, se sont poursuivis dans le laboratoire BSICoS de Saragosse dans le cadre d’une bourse d’échanges soutenue par l’école doctorale MathSTIC pendant une période de mobilité de cinq mois et se sont terminés au LTSI. L'objectif de Farasha Labs était de concevoir un écosystème de dispositifs médicaux pour surveiller les paramètres vitaux de ses clients. Dans ce cadre, différents dispositifs ont été conçus : une montre connectée (CareUp®) pour estimer la tension artérielle, un gant connecté (UpNEA) pour la détection et la classification des apnées et hypopnées du sommeil, un serveur (AeneA) pour le cloud computing et une plateforme (eCardio) pour prédire les risques cardiovasculaires. Dans ce contexte, cette thèse s'est focalisée sur le développement d'algorithmes de traitement du signal et d'analyse de données, embarqués dans chacun des produits proposés par Farasha Labs. Les contributions majeures de ce travail peuvent ainsi être résumées : i) un algorithme pour estimer la pression artérielle à partir d'un CareUp® ; ii) une méthode de classification des étapes du sommeil intégrée dans CareUp® et UpNEA; iii) un algorithme de détection et de classification pour l'apnée et l'hypopnée du sommeil; iv) une comparaison exhaustive entre différents algorithmes d’estimation de la fréquence respiratoire à partir du PPG pour UpNEA; v) une plateforme de cloud computing (AeneA) pour la surveillance du sommeil. En synthèse, ce travail a permis le développement de 4 produits en phase de pré-production. Ces derniers représentent à nos yeux une opportunité commerciale sur le marché. Ces travaux ont reçu le prix du concours "Accompagnement aux projets innovants" organisé par la Fondation entreprise de la Banque Populaire de l’Ouest.
|
|
Traitement du signal et télécommunications
/ 10-07-2015
Montazeri Ghahjaverestan Nasim
Voir le résumé
Voir le résumé
L'apnée est une complication fréquente chez les nouveaux-nés prématurés. L'un des problèmes les plus fréquents est l'épisode d'apnée bradycardie dont la répétition influence de manière négative le développement de l'enfant. C'est pourquoi les enfants prématurés sont surveillés en continu par un système de monitoring. Depuis la mise en place de ce système, l'espérance de vie et le pronostic de vie des prématurés ont été considérablement améliorés et ainsi la mortalité réduite. En effet, les avancées technologiques en électronique, informatique et télécommunications ont conduit à l'élaboration de systèmes multivoies de monitoring néonatal de plus en plus performants. L'un des principaux signaux exploités dans ces systèmes est l'électrocardiogramme (ECG). Toutefois, même si l'analyse de l'ECG a évolué au fil des années, l'ensemble des informations qu'il fournit n'est pas encore totalement exploité dans les processus de décision, notamment en monitoring en Unité de Soins Intensifs en Néonatalogie (USIN). L'objectif principal de cette thèse est d'améliorer la prise en compte des dynamiques multi-dimensionnelles en proposant de nouvelles approches basées sur un formalisme bayésien, pour la détection précoce des apnées bradycardies chez le nouveau-né prématuré. Aussi, dans cette thèse, nous proposons deux approches bayésiennes, basées sur les caractéristiques de signaux biologiques en vue de la détection précoce de l'apnée bradycardie des nouveaux-nés prématurés. Tout d'abord avec l'approche de Markov caché, nous proposons deux extensions du Modèle de Markov Caché (MMC) classique. La première, qui s'appelle Modèle de Markov Caché Couplé (MMCC), créé une chaîne de Markov à chaque dimension de l'observation et établit un couplage entre les chaînes. La seconde, qui s'appelle Modèle Semi-Markov Caché Couplé (MSMCC), combine les caractéristiques du modèle de MSMC avec le mécanisme de couplage entre canaux. Pour les deux nouveaux modèles (MMCC et MSMCC), les algorithmes récursifs basées sur la version classique de Forward-Backward sont introduits pour résoudre les problèmes d'apprentissage et d'inférence dans le cas couplé. En plus des modèles de Markov, nous proposons deux approches passées sur les filtres de Kalman pour la détection d'apnée. La première utilise les modifications de la morphologie du complexe QRS et est inspirée du modèle générateur de McSharry, déjà utilisé en couplant avec un filtre de Kalman étendu dans le but de détecter des changements subtils de l'ECG, échantillon par échantillon. La deuxième utilise deux modèles AR (l'un pour le processus normal et l'autre pour le processus de bradycardie). Les modèles AR sont appliqués sur la série RR, alors que le filtre de Kalman suit l'évolution des paramètres du modèle AR et fournit une mesure de probabilité des deux processus concurrents.
|
|