Tri :
Date
Titre
Auteur
|
|
Traitement du signal et télécommunications
/ 05-10-2016
Lepoutre Alexandre
Voir le résumé
Voir le résumé
Cette thèse s'intéresse à l'étude et au développement de méthodes de pistage mono et multicible en contexte Track-Before-Detect (TBD) par filtrage particulaire. Contrairement à l'approche classique qui effectue un seuillage préalable sur les données avant le pistage, l'approche TBD considère directement les données brutes afin de réaliser conjointement la détection et le pistage des différentes cibles. Il existe plusieurs solutions à ce problème, néanmoins cette thèse se restreint au cadre bayésien des Modèles de Markov Cachés pour lesquels le problème TBD peut être résolu à l'aide d'approximations particulaires. Dans un premier temps, nous nous intéressons à des méthodes particulaires monocibles existantes pour lesquels nous proposons différentes lois instrumentales permettant l'amélioration des performances en détection et estimation. Puis nous proposons une approche alternative du problème monocible fondée sur les temps d'apparition et de disparition de la cible; cette approche permet notamment un gain significatif au niveau du temps de calcul. Dans un second temps, nous nous intéressons au calcul de la vraisemblance en TBD -- nécessaire au bon fonctionnement des filtres particulaires -- rendu difficile par la présence des paramètres d'amplitudes des cibles qui sont inconnus et fluctuants au cours du temps. En particulier, nous étendons les travaux de Rutten et al. pour le calcul de la vraisemblance au modèle de fluctuations Swerling et au cas multicible. Enfin, nous traitons le problème multicible en contexte TBD. Nous montrons qu'en tenant compte de la structure particulière de la vraisemblance quand les cibles sont éloignées, il est possible de développer une solution multicible permettant d'utiliser, dans cette situation, un seule filtre par cible. Nous développons également un filtre TBD multicible complet permettant l'apparition et la disparition des cibles ainsi que les croisements.
|
|
Traitement du signal et télécommunications
/ 08-09-2016
Pometcu Laura
Voir le résumé
Voir le résumé
Les matériaux absorbants des ondes électromagnétiques sont des éléments importants pour l'évaluation de nombreux systèmes électroniques militaires mais également civils. Ces matériaux sont utilisés, par exemple, pour la réduction des interférences électromagnétiques (EMI) dans divers composants sans fils, la réduction de la surface équivalente radar (SER) ou comme absorbants à l'intérieur des chambres de mesures. C’est cette dernière application qui est visée par les travaux de cette thèse. L’objectif de mes travaux de thèse est d’optimiser des matériaux absorbants utilisés dans les chambres anéchoïques. La géométrie et la composition du matériau absorbant sont les deux paramètres qui influencent la capacité d’absorption de l’onde électromagnétique par un matériau. Ce seront donc les deux pistes d’optimisation explorés durant cette thèse. Notre but est d’obtenir les absorbants présentant les plus faibles coefficients de réflexion et de transmission, soit une absorption élevée, ceci dans une large bande de fréquence.
|
|
Traitement du signal et télécommunications
/ 07-09-2016
Haskou Abdullah
Voir le résumé
Voir le résumé
Pour faire cohabiter les nombreuses technologies radios, les terminaux mobiles nécessitent une miniaturisation de plus en plus poussée des antennes. Toutefois, les performances d'antennes ont des limites fondamentales liées à leurs dimensions physiques. La littérature met en évidence que les réseaux superdirectifs permettent de dépasser la limite de Harrington sur la directivité et que des antennes adaptées par des circuits non-Foster peuvent dépasser la limite de Bode-Fano sur la bande passante. Les contributions essentielles de ce travail de thèse consistent en la conception de
réseaux d'antennes superdirectifs et d'antennes adaptées par des circuits non-Foster comme solutions possibles pour l'amélioration des performances des Antennes Electriquement Petites (AEP). Dans une première partie, un convertisseur d'impédance négative est réalisé pour obtenir des condensateurs de valeurs négatives de façon à adapter des antennes miniatures sur une large bande de fréquence. Dans la deuxième partie de ces travaux, les limites théoriques des réseaux d'antennes superdirectifs sont évaluées et une approche simple et pratique permettant la conception de ces réseaux à partir d'éléments parasites est proposée. L'intégration des AEP superdirectives sur des cartes de circuit imprimé est étudiée et les difficultés de mesure de ce type d'antenne sont évaluées. A partir de ces résultats, une nouvelle stratégie pour réaliser des réseaux compactes 3D ou planaires à polarisation linéaire ou circulaire en utilisant des éléments superdirectifs est présentée.
|
|
Traitement du signal et télécommunications
/ 26-07-2016
Porfiri Martina
Voir le résumé
Voir le résumé
L'urbanisation et la gestion de l'environnement urbain et sa périphérie deviennent l'un des problèmes les plus cruciaux dans les pays développés et en développement. Dans ces circonstances, les données de télédétection sont une source importante d'information qui reflète les interactions entre les êtres humains et leur environnement. Compte tenu de leur indépendance totale des contraintes logistiques sur le terrain, l'éclairage (lumière du jour) et météorologiques (nuages) conditions, Synthetic Aperture Radar (SAR) les systèmes de satellites peuvent fournir des contributions importantes dans des environnements complexes de reconstruction 3-D. La nouvelle génération de haute résolution SAR capteurs comme COSMOSkyMed, TerraSAR-X RADARSAT-2 a permis d'acquérir des images SAR à haute résolution. Ici, l'attention est mis sur la technique pour l'imagerie 3-D nominée tomographie SAR: à partir d'une pile d'images ont été recueillies en utilisant les données multibaseline effectuées dans la configuration interférométrique, une telle technique permet d'extraire les informations de hauteur formant une ouverture synthétique dans la direction d'élévation afin d'obtenir une résolution sensiblement améliorée. Cette thèse de doctorat se concentre sur les potentialités élevées de techniques tomographiques en 3-D surveillance des changements et la caractérisation des zones complexes et denses bâties en utilisant des estimateurs mono-dimensionnelle de base comme Beamforming, Capon et MUSIC combinée au satellite très haute résolution des images SAR. 2-D et de l'analyse 3-D ont été présentés sur la zone urbaine de Paris en utilisant les données TerraSAR-X à haute résolution et de polarisation unique. Être porté principalement sur les techniques tomographiques 3-D, dans les méthodes de travail 4-D présentés, tels que le Compressive Sensing, ne sont pas pris en compte. Dans un premier temps, l'analyse de la qualité interférométrique de l'ensemble de données transformées a montré de bonnes valeurs de cohérence moyenne et ont permis de détecter des images considérées comme des valeurs aberrantes. L'extraction des tomographies 2-D sur l'azimut différent de profil a montré la capacité de distinguer plus d'un diffuseur à l'intérieur de la même cellule de résolution et de reconstituer les profilés de construction verticaux. Successivement, une caractérisation 3-D globale en terme de bâtiments hauteurs et réflectivité verticale a été réalisée dans le but de développer un outil de suivi des changements des structures simples. En outre, la possibilité de corriger les distorsions géométriques en raison de l'escale (qui affecte fortement ce genre de scénarios) et de déterminer les informations sur le nombre de diffuseurs (jusqu'à trois) et la réflectivité correspondant à l'intérieur d'une cellule de résolution ont été évalués.
|
|
Traitement du signal et télécommunications
/ 19-07-2016
Nassef Mohamed
Voir le résumé
Voir le résumé
Cette thèse porte sur la prise en compte des variations anatomiques, notamment les déformations d’organes à risque (rectum, vessie), pouvant survenir lors du traitement de radiothérapie conformationnelle par modulation d’intensité du cancer de la prostate. Ces variations peuvent entrainer d’importants écarts dosimétriques par rapport au plan de traitement initialement optimisé, et augmenter le risque de complications. Grâce à l’évolution des dispositifs d’imagerie et des méthodes de traitement d’images, des approches permettant de cumuler la dose au cours du traitement ont été récemment proposées mais restent mal évaluées et leur intégration dans un schéma de radiothérapie adaptative suscite de nombreuses questions. Ainsi, la première partie de ce travail a consisté à évaluer, à l’aide d’un fantôme numérique, une méthode de suivi de dose développée récemment au LTSI. Les résultats obtenus ont montré que les incertitudes dosimétriques liées à l’algorithme de cumul de dose sont limitées par rapport aux dérives dosimétriques observées chez les patients. La seconde partie de ce travail a consisté à proposer une stratégie de radiothérapie adaptative reposant sur le suivi de dose et à évaluer son bénéfice dosimétrique sur trois patients pour lesquels des dérives avaient été observées. Le principe de cette méthode est de détecter les dérives dosimétriques entre la dose planifiée et la dose réellement délivrée et, si besoin, de les compenser grâce à une ou plusieurs replanifications. Les résultats obtenus ont montré que cette approche permet une réduction de la dérive aux organes à risque, tout en augmentant la dose au volume cible en comparaison à un traitement standard par IGRT, avec un nombre limité de replanifications (une ou deux) permettant d’envisager une implémentation clinique.
|
|
Informatique
/ 08-07-2016
Deshpande Hrishikesh
Voir le résumé
Voir le résumé
La plupart des signaux naturels peuvent être représentés par une combinaison linéaire de quelques atomes dans un dictionnaire. Ces représentations parcimonieuses et les méthodes d'apprentissage de dictionnaires (AD) ont suscité un vif intérêt au cours des dernières années. Bien que les méthodes d'AD classiques soient efficaces dans des applications telles que le débruitage d'images, plusieurs méthodes d'AD discriminatifs ont été proposées pour obtenir des dictionnaires mieux adaptés à la classification. Dans ce travail, nous avons montré que la taille des dictionnaires de chaque classe est un facteur crucial dans les applications de reconnaissance des formes lorsqu'il existe des différences de variabilité entre les classes, à la fois dans le cas des dictionnaires classiques et des dictionnaires discriminatifs. Nous avons validé la proposition d'utiliser différentes tailles de dictionnaires, dans une application de vision par ordinateur, la détection des lèvres dans des images de visages, ainsi que par une application médicale plus complexe, la classification des lésions de scléroses en plaques (SEP) dans des images IRM multimodales. Les dictionnaires spécifiques à chaque classe sont appris pour les lésions et les tissus cérébraux sains. La taille du dictionnaire pour chaque classe est adaptée en fonction de la complexité des données. L'algorithme est validé à l'aide de 52 séquences IRM multimodales de 13 patients atteints de SEP.
|
|
Traitement du signal et télécommunications
/ 06-07-2016
Ferreira Julio Cesar
Voir le résumé
Voir le résumé
La ''super-résolution'' est définie comme une classe de techniques qui améliorent la résolution spatiale d’images. Les méthodes de super-résolution peuvent être subdivisés en méthodes à partir d’une seule image et à partir de multiple images. Cette thèse porte sur le développement d’algorithmes basés sur des théories mathématiques pour résoudre des problèmes de super-résolution à partir d’une seule image. En effet, pour estimer un’image de sortie, nous adoptons une approche mixte : nous utilisons soit un dictionnaire de « patches » avec des contraintes de parcimonie (typique des méthodes basées sur l’apprentissage) soit des termes régularisation (typiques des méthodes par reconstruction). Bien que les méthodes existantes donnent déjà de bons résultats, ils ne prennent pas en compte la géométrie des données dans les différentes tâches. Par exemple, pour régulariser la solution, pour partitionner les données (les données sont souvent partitionnées avec des algorithmes qui utilisent la distance euclidienne comme mesure de dissimilitude), ou pour apprendre des dictionnaires (ils sont souvent appris en utilisant PCA ou K-SVD). Ainsi, les méthodes de l’état de l’art présentent encore certaines limites. Dans ce travail, nous avons proposé trois nouvelles méthodes pour dépasser ces limites. Tout d’abord, nous avons développé SE-ASDS (un terme de régularisation basé sur le tenseur de structure) afin d’améliorer la netteté des bords. SE-ASDS obtient des résultats bien meilleurs que ceux de nombreux algorithmes de l’état de l’art. Ensuite, nous avons proposé les algorithmes AGNN et GOC pour déterminer un sous-ensemble local de données d’apprentissage pour la reconstruction d’un certain échantillon d’entrée, où l’on prend en compte la géométrie sous-jacente des données. Les méthodes AGNN et GOC surclassent dans la majorité des cas la classification spectrale, le partitionnement de données de type « soft », et la sélection de sous-ensembles basée sur la distance géodésique. Ensuite, nous avons proposé aSOB, une stratégie qui prend en compte la géométrie des données et la taille du dictionnaire. La stratégie aSOB surpasse les méthodes PCA et PGA. Enfin, nous avons combiné tous nos méthodes dans un algorithme unique, appelé G2SR. Notre algorithme montre de meilleurs résultats visuels et quantitatifs par rapport aux autres méthodes de l’état de l’art.
|
|
Traitement du signal et télécommunications
/ 29-06-2016
Flocon-Cholet Joachim
Voir le résumé
Voir le résumé
Cette thèse porte sur la classification audio sous contrainte de faible latence. La classification audio est un sujet qui a beaucoup mobilisé les chercheurs depuis plusieurs années. Cependant, on remarque qu’une grande majorité des systèmes de classification ne font pas état de contraintes temporelles : le signal peut être parcouru librement afin de rassembler les informations nécessaires pour la prise de décision (on parle alors d’une classification hors ligne). Or, on se place ici dans un contexte de classification audio pour des applications liées au domaine des télécommunications. Les conditions d’utilisation sont alors plus sévères : les algorithmes fonctionnent en temps réel et l’analyse du signal et le traitement associé se font à la volée, au fur et à mesure que le signal audio est transmis. De fait, l’étape de classification audio doit également répondre aux contraintes du temps réel, ce qui affecte son fonctionnement de plusieurs manières : l’horizon d’observation du signal se voit nécessairement réduit aux instants présents et à quelques éléments passés, et malgré cela, le système doit être fiable et réactif. Dès lors, la première question qui survient est : quelle stratégie de classification peut-on adopter afin de faire face aux exigences du temps réel ? On retrouve dans littérature deux grandes approches permettant de répondre à des contraintes temporelles plus ou moins fortes : la classification à la trame et la classification sur segment. Dans le cadre d’une classification à la trame, la décision est prise en se basant uniquement sur des informations issues de la trame audio courante. La classification sur segment, elle, exploite une information court-terme en utilisant les informations issues de la trame courante et de quelques trames précédentes. La fusion des données se fait via un processus d’intégration temporelle qui consiste à extraire une information pertinente basée sur l’évolution temporelle des descripteurs audio. À partir de là, on peut s’interroger pour savoir quelles sont les limites de ces stratégies de classification ? Une classification à la trame et une classification sur segment peuvent-elles être utilisées quel que soit le contexte ? Est-il possible d’obtenir des performances convenables avec ces deux approches ? Quelle mode de classification permet de produire le meilleur rapport entre performance de classification et réactivité ? Aussi, pour une classification sur segment, le processus d’intégration temporelle repose principalement sur des modélisation statistiques mais serait-il possible de proposer d’autres approches ? L’exploration de ce sujet se fera à travers plusieurs cas d’étude concrets. Tout d’abord, dans le cadre des projets de recherche à Orange Labs, nous avons pu contribuer au développement d’un nouvel algorithme de protection acoustique, visant à supprimer très rapidement des signaux potentiellement dangereux pour l’auditeur. La méthode mise au point, reposant sur la proposition de trois descripteurs audio, montre un taux de détection élevé tout en conservant un taux de fausse alarme très bas, et ce, quelles que soient les conditions d’utilisation. Par la suite, nous nous sommes intéressés plus en détail à l’utilisation de l’intégration temporelle des descripteurs dans un cadre de classification audio faible latence. Pour cela, nous avons proposé et évalué plusieurs méthodologies d’utilisation de l’intégration temporelle permettant d’obtenir le meilleur compromis entre performance globale et réactivité. Enfin, nous proposons une autre manière d’exploiter l’information temporelle des descripteurs. L’approche proposée s’appuie sur l’utilisation des représentations symboliques permettant de capter la structure temporelle des séries de descripteurs. L’idée étant ensuite de rechercher des motifs temporels caractéristiques des différentes classes audio. Les expériences réalisées montrent le potentiel de cette approche.
|
|
Traitement du signal et télécommunications
/ 29-06-2016
Fargeas Aureline
Voir le résumé
Voir le résumé
Le cancer de la prostate est l'un des cancers les plus fréquents chez l'homme. L'un des traitements standard est la radiothérapie externe, qui consiste à délivrer un rayonnement d'ionisation à une cible clinique, en l'occurrence la prostate et les vésicules séminales. Les objectifs de la radiothérapie externe sont la délivrance d'une dose d'irradiation maximale à la tumeur tout en épargnant les organes voisins (principalement le rectum et la vessie) pour éviter des complications suite au traitement. Comprendre les relations dose/toxicité est une question centrale pour améliorer la fiabilité du traitement à l'étape de planification inverse. Des modèles prédictifs de toxicité pour le calcul des probabilités de complications des tissus sains (normal tissue complication probability, NTCP) ont été développés afin de prédire les événements de toxicité en utilisant des données dosimétriques. Les principales informations considérées sont les histogrammes dose-volume (HDV), qui fournissent une représentation globale de la distribution de dose en fonction de la dose délivrée par rapport au pourcentage du volume d'organe. Cependant, les modèles actuels présentent certaines limitations car ils ne sont pas totalement optimisés; la plupart d'entre eux ne prennent pas en compte les informations non-dosimétrique (les caractéristiques spécifiques aux patients, à la tumeur et au traitement). De plus, ils ne fournissent aucune compréhension des relations locales entre la dose et l'effet (dose-espace/effet relations) car ils n'exploitent pas l'information riche des distributions de planification de dose 3D. Dans un contexte de prédiction de l'apparition de saignement rectaux suite au traitement du cancer de la prostate par radiothérapie externe, les objectifs de cette thèse sont : i) d'extraire des informations pertinentes à partir de l'HDV et des variables non-dosimétriques, afin d'améliorer les modèles NTCP existants et ii) d'analyser les corrélations spatiales entre la dose locale et les effets secondaires permettant une caractérisation de la distribution de dose 3D à l'échelle de l'organe. Ainsi, les stratégies visant à exploiter les informations provenant de la planification (distributions de dose 3D et HDV) ont été proposées. Tout d'abord, en utilisant l'analyse en composantes indépendantes, un nouveau modèle prédictif de l'apparition de saignements rectaux, combinant d'une manière originale l'information dosimétrique et non-dosimétrique, a été proposé. Deuxièmement, nous avons mis au point de nouvelles approches visant à prendre conjointement profit des distributions de dose de planification 3D permettant de déceler la corrélation subtile entre la dose locale et les effets secondaires pour classer et/ou prédire les patients à risque de souffrir d'un saignement rectal, et d'identifier les régions qui peuvent être à l'origine de cet événement indésirable. Plus précisément, nous avons proposé trois méthodes stochastiques basées sur analyse en composantes principales, l'analyse en composantes indépendantes et la factorisation discriminante en matrices non-négatives, et une méthode déterministe basée sur la décomposition polyadique canonique de tableaux d'ordre 4 contenant la dose planifiée. Les résultats obtenus montrent que nos nouvelles approches présentent de meilleures performances générales que les méthodes prédictives de la littérature.
|
|
Traitement du signal et télécommunications
/ 22-06-2016
Zhu Jie
Voir le résumé
Voir le résumé
Les travaux présentés dans cette thèse s'inscrivent dans la problématique de la connectivité cérébrale, connectivité tripartite puisqu'elle sous-tend les notions de connectivité structurelle, fonctionnelle et effective. Ces trois types de connectivité que l'on peut considérer à différentes échelles d'espace et de temps sont bien évidemment liés et leur analyse conjointe permet de mieux comprendre comment structures et fonctions cérébrales se contraignent mutuellement. Notre recherche relève plus particulièrement de la connectivité effective qui permet de définir des graphes de connectivité qui renseignent sur les liens causaux, directs ou indirects, unilatéraux ou bilatéraux via des chemins de propagation, représentés par des arcs, entre les nœuds, ces derniers correspondant aux régions cérébrales à l'échelle macroscopique. Identifier les interactions entre les aires cérébrales impliquées dans la génération et la propagation des crises épileptiques à partir d'enregistrements intracérébraux est un enjeu majeur dans la phase pré-chirurgicale et l'objectif principal de notre travail. L'exploration de la connectivité effective suit généralement deux approches, soit une approche basée sur les modèles, soit une approche conduite par les données comme nous l'envisageons dans le cadre de cette thèse où les outils développés relèvent de la théorie de l'information et plus spécifiquement de l'entropie de transfert, la question phare que nous adressons étant celle de la précision des estimateurs de cette grandeur dans le cas des méthodes développées basées sur les plus proches voisins. Les approches que nous proposons qui réduisent le biais au regard d'estimateurs issus de la littérature sont évaluées et comparées sur des signaux simulés de type bruits blancs, processus vectoriels autorégressifs linéaires et non linéaires, ainsi que sur des modèles physiologiques réalistes avant d'être appliquées sur des signaux électroencéphalographiques de profondeur enregistrés sur un patient épileptique et comparées à une approche assez classique basée sur la fonction de transfert dirigée. En simulation, dans les situations présentant des non-linéarités, les résultats obtenus permettent d'apprécier la réduction du biais d'estimation pour des variances comparables vis-à-vis des techniques connues. Si les informations recueillies sur les données réelles sont plus difficiles à analyser, elles montrent certaines cohérences entre les méthodes même si les résultats préliminaires obtenus s'avèrent davantage en accord avec les conclusions des experts cliniciens en appliquant la fonction de transfert dirigée.
|
|