Tri :
Date
Titre
Auteur
|
|
Traitement du signal et télécommunications
/ 18-12-2015
Robinson Cordelia
Voir le résumé
Voir le résumé
D'une part, les équations de Navier-Stokes permettent de décrire les écoulements fluides, la littérature est riche de méthodes numériques permettant la résolution de celle-ci. D'autre part, nous sommes capables de mesurer de manière non-intrusive différentes caractéristique d'un écoulement (champ de vitesse et pression, etc.). Dans le cadre de cette thèse, nous nous intéressons aux techniques d'assimilation de données qui combinent les modèles numériques avec les observations afin de déterminer une meilleure approximation du système. Cette thèse s'articule autour de l'assimilation de donnée variationnelle (4DVar) qui est plus précise par construction. Nous avons mené une première application sur la reconstruction de la hauteur et vitesse de la surface libre d'un fluide contenu dans un récipient rectangulaire à fond plat. L'écoulement est modélisé par les équations de shallow water et résolues numériquement. Les observations de l'évolution de la hauteur de la surface libre ont été prélevées par un capteur de profondeur (Kinect). Nous avons comparé les résultats de la reconstruction par 4DVar avec plusieurs version de la méthode d'assimilation hybride 4DEnVar. Enfin, nous avons appliqué la technique 4DVar à la reconstruction volumique de l'aval d'un sillage de cylindre à Reynolds 300. L'écoulement turbulent a été simulé par un code DNS parallèle Incompact3D. La reconstruction a été effectué en combinant tout d'abord des observations synthétiques en trois dimension, puis en combinant des observations de plans orthogonales en stéréo PIV.
|
|
Traitement du signal et télécommunications
/ 16-12-2015
Oukili Ahmed
Voir le résumé
Voir le résumé
La problématique de cette thèse concerne la reconstruction statistique itérative 3D de l'arbre coronaire, à partir d'un nombre très réduit d'angiogrammes coronariens (5 images). Pendant un examen rotationnel d'angiographie RX, seules les projections correspondant à la même phase cardiaque sont sélectionnées afin de vérifier la condition de non variabilité spatio-temporelle de l'objet à reconstruire (reconstruction statique). Le nombre restreint de projections complique cette reconstruction, considérée alors comme un problème inverse mal posé. La résolution d'un tel problème nécessite une procédure de régularisation. Pour ce faire, nous avons opté pour le formalisme bayésien en considérant la reconstruction comme le champ aléatoire maximisant la probabilité a posteriori (MAP), composée d'un terme quadratique de vraisemblance (attache aux données) et un a priori de Gibbs (à priori markovien basé sur une interprétation partielle de l'objet à reconstruire). La maximisation MAP adoptant un algorithme d'optimisation numérique nous a permis d'introduire une contrainte de lissage avec préservation de contours des reconstructions en choisissant adéquatement les fonctions de potentiel associées à l'énergie à priori. Dans ce manuscrit, nous avons discuté en détail des trois principales composantes d'une reconstruction statistique MAP performante, à savoir (1) l'élaboration d'un modèle physique précis du processus d'acquisition, (2) l'adoption d'un modèle à priori approprié et (3) la définition d'un algorithme d'optimisation itératif efficace. Cette discussion nous a conduit à proposer deux algorithmes itératifs MAP, MAP-MNR et MAP-ARTUR-GC, que nous avons testés et évalués sur des données simulées réalistes (données patient issues d'une acquisition CT- 64 multi-barrettes).
|
|
Traitement du signal et télécomumnications
/ 16-12-2015
Di Palma Luca
Voir le résumé
Voir le résumé
De nombreuses applications civiles et militaires (faisceaux hertziens, futurs réseaux mobiles, communications par satellite, radars automobiles, systèmes d’imagerie haute résolution) nécessitent des antennes à faisceau reconfigurable (dépointage de faisceau, faisceaux multiples, faisceaux formés). Les antennes à réseaux transmetteurs apparaissent comme une alternative aux réseaux phasés classiques ou aux réseaux réflecteurs pour ces applications. L’objectif principal de cette thèse est de démontrer la faisabilité de réseaux reconfigurables fabriqués avec des technologies standards en bande Ka (20-30 GHz). Divers cellules élémentaires utilisant des diodes p-i-n et fonctionnant en polarisation linéaire ou circulaire ont été conçues, optimisées et caractérisées. Les mesures en guide d’onde montrent des pertes minimales de 1,09 dB à 29,0 GHz et une bande passante à 3 dB de 14,7%. Une méthode de simulation hybride a été développée afin d’analyser efficacement des réseaux de grandes dimensions utilisant des rotations séquentielles d’éléments pour optimiser la qualité de polarisation et les diagrammes de rayonnement. Un réseau de 400 cellules élémentaires fonctionnant en polarisation circulaire a été réalisé et testé en chambre anéchoïque. Un dépointage électronique de ±60° et la possibilité de commuter entre les deux polarisations circulaires (droite/gauche) ont été démontrés.
|
|
Traitement du signal et télécommunications
/ 15-12-2015
Scattone Francesco
Voir le résumé
Voir le résumé
L'objectif de cette thèse est d'exploiter les phénomènes des ondes de fuite pour améliorer les performances des antennes classiques à ouverture pour les applications spatiales. Ici, nous considérons des configurations planaires où les ondes de fuite sont excitées entre un plan de masse et un superstrat partiellement réfléchissant. Des réseaux de petites ouvertures sur le plan de masse sont utilisés pour alimenter les antennes considérées. Les structures avec superstrat sont développées en configuration réseaux simples ou réseaux à commande de phase, considérées intéressantes en termes de flexibilité du système pour des liens satellitaires de nouvelle génération.
Pour étudier efficacement ces antennes, nous avons développé un outil d'analyse basé sur une approche spectrale avec fonction de Green. Cet outil permet d'analyser les structures proposées en prenant en compte l'impact du couplage mutuel entre les éléments sur les performances de rayonnement avec une réduction du temps de calcul et d'utilisation de mémoire.
L'augmentation du gain des structures à ondes de fuite peut ouvrir la voie à la réduction du nombre d'éléments des réseaux associés, et donc des commandes en amplitude et phase. Dans une configuration à ondes de fuite, chaque élément du réseau rayonne avec une ouverture équivalente plus grande, augmentant ainsi l'espacement entre les éléments sans affecter le gain global de la structure. Comme largement expliqué dans le manuscrit, les solutions à ondes de fuite représentent par conséquent un avantage majeur pour les antennes du segment utilisateur.
En plus de l'amélioration du gain, la technologie à ondes de fuite peut être efficacement exploitée pour synthétiser le diagramme de rayonnement, en choisissant correctement les paramètres de conception de l'antenne. Cette caractéristique peut être utilisée dans les réseaux à commande de phase, pour produire un diagramme d'élément qui minimise les pertes par dépointage et qui filtre les lobes de réseaux. Une procédure de synthèse pour des antennes réseaux raréfiés à ondes de fuite est ainsi présentée dans le manuscrit, ainsi qu'une nouvelle configuration de réseaux avec superstrat irrégulier. Ce dernier permet de réduire les lobes secondaires de l'antenne en utilisant une excitation uniforme. Cette dernière configuration montre clairement que la capacité de modifier le diagramme de rayonnement est la caractéristique la plus attrayante des antennes planaires à ondes de fuite, pour être utilisée dans des solutions de réseaux à commande de phase.
|
|
Traitement du signal et télécommunications
/ 08-12-2015
Presse Anthony
Voir le résumé
Voir le résumé
L'invention de l'antenne fût à la base de la création des communications sans fil à l'orée du XXe siècle. A l'origine des objets métalliques destinés à transmettre et recevoir des ondes électromagnétiques, les antennes n'ont cessé de se complexifier pour satisfaire l'impressionnant développement des communications sans fil. C'est dans ce contexte qu'est né le concept d'antenne « wearable » il y a moins de deux décennies ouvrant un nouveau champ de recherche sur les antennes souples. C'est dans ce cadre que ce travail de thèse se consacre à la conception d’antennes souples en bande UHF.
Une première étude a permis de concevoir une antenne Vivaldi antipodale [150 - 900 MHz] souple pour la Section Technique de l'Armée de Terre. Six de ces antennes sont destinées à être placées sous un ballon gonflé à l'hélium pour réceptionner des signaux RF.
Une seconde étude est effectuée en collaboration avec la société Syrlinks et le CNES. L'objectif du projet est de concevoir des antennes souples pour le suivi de personnes avec le système ARGOS (401 et 466 MHz). La solution retenue est une PIFA planaire de largeur inférieure à lambda/3. Elle a l'avantage d'être fine et légère. Le matériau souple employé est un caoutchouc silicone sélectionné parmi plusieurs matériaux souples grâce à des caractérisations diélectriques. Cependant, le problème de cette antenne est qu'elle possède un rayonnement quasi-omnidirectionnel. Etant donné qu'il n'était pas envisageable d'utiliser un plan réflecteur métallique pour des raisons de dimensions, il a été décidé de concevoir un conducteur magnétique artificiel (CMA) souple. Toutefois, la conception de CMA dans le bas de la bande UHF se heurte à des difficultés de miniaturisation. Pour contourner ce problème, il a été développé deux concepts de CMA à cellules unitaires de faibles dimensions devant la longueur d'onde. La première solution utilise des capacités interdigitées et la seconde une structure double couche. Pour ces deux concepts, un modèle circuit est proposé et validé par des mesures expérimentales. Les mesures de l'association CMA - antenne montrent une bande passante suffisante pour des applications ARGOS et un rayonnement majoritairement dirigée dans la direction opposé à celle du CMA.
|
|
Traitement du signal et télécommunications
/ 07-12-2015
Leduc Carole
Voir le résumé
Voir le résumé
Récemment la bande 60 GHz a été mise en avant pour le développement des réseaux de communication sans fil centrés sur le corps humain. Cet intérêt de la bande 60 GHz pour les applications BAN (Body Area Network) s'explique par les avantages clefs qu'elle procure par rapport aux bandes de fréquence plus basses (possibilité de débits de données supérieurs à 7 Gbit/s, réduction des interférences avec les réseaux voisin, compacité des dispositifs, etc).
Le nombre d'application de communication BAN est amené à croître dans les années à venir avec le déploiement de la 5ème génération de réseaux de télécommunications mobiles. Afin de protéger efficacement les utilisateurs des expositions générées par ces applications BAN à 60 GHz, il est nécessaire de se pencher sur les problématiques de réduction du couplage corps/antennes, mais également sur l'évaluation et la quantification du niveau d'exposition du corps à 60 GHz. Pour cela, les travaux de thèse ont été organisés suivant trois axes de recherche : le premier consiste à mettre en évidence et à quantifier l'impact de certains choix de conception en matière d'antennes sur le couplage avec le corps humain ; le second porte sur les outils et les méthodes utilisés pour estimer l'impact thermique d'une exposition électromagnétique 60 GHz sur le fantôme équivalent de la peau ; et le troisième propose une nouvelle approche à la fois dosimétrique et thermique pour évaluer et analyser le couplage corps/antennes en bande millimétrique.
|
|
Traitement du signal et télécommunications
/ 27-11-2015
Tunaru Iulia
Voir le résumé
Voir le résumé
Dans cette thèse on s’est intéressé aux méthodes de génération de clés secrètes symétriques en utilisant la couche physique ultra large bande impulsionnelle (IR-UWB). Les travaux ont été réalisés selon trois axes, les deux premiers concernant la communication point-à-point et le dernier, les communications coopératives. Tout d’abord, la quantification des signaux typiques IR-UWB (soit directement échantillonnés, soit estimés) a été investiguée, principalement du point de vue du compromis entre la robustesse (ou réciprocité) des séquences binaires obtenues et leur caractère aléatoire. Différents algorithmes de quantification valorisant l’information temporelle offerte par les canaux IR-UWB pour améliorer ce compromis ont alors été proposés. Ensuite, des études concernant les échanges publics nécessaires à l’étape de réconciliation (visant la correction d’éventuels désaccords entre les séquences binaires générées de part et d’autre du lien) ont montré qu’il était possible d’être plus robuste face aux attaques passives en utilisant des informations de plus haut niveau, inhérentes à cette technologie et disponibles à moindre coût (ex. via une estimation précise du temps de vol aller-retour). Finalement, une nouvelle méthode a été développée afin d’étendre les schémas de génération de clé point-à-point à plusieurs nœuds (trois dans nos études) en utilisant directement la couche physique fournie par les liens radio entre les nœuds.
|
|
Traitement du signal et télécommunications
/ 26-11-2015
Kitic Srdan
Voir le résumé
Voir le résumé
Les problèmes inverses liés à des processus physiques sont d'une grande importance dans la plupart des domaines liés au traitement du signal, tels que la tomographie, l'acoustique, les communications sans fil, le radar, l'imagerie médicale, pour n'en nommer que quelques uns. Dans le même temps, beaucoup de ces problèmes soulèvent des défis en raison de leur nature mal posée. Par ailleurs, les signaux émanant de phénomènes physiques sont souvent gouvernées par des lois s'exprimant sous la forme d'équations aux dérivées partielles (EDP) linéaires, ou, de manière équivalente, par des équations intégrales et leurs fonctions de Green associées. De plus, ces phénomènes sont habituellement induits par des singularités, apparaissant comme des sources ou des puits d'un champ vectoriel. Dans cette thèse, nous étudions en premier lieu le couplage entre de telles lois physiques et une hypothèse initiale de parcimonie des origines du phénomène physique. Ceci donne naissance à un concept de dualité des régularisations, formulées soit comme un problème d'analyse coparcimonieuse (menant à la représentation en EDP), soit comme une parcimonie à la synthèse équivalente à la précédente (lorsqu'on fait plutôt usage des fonctions de Green). Nous dédions une part significative de notre travail à la comparaison entre les approches de synthèse et d'analyse. Nous défendons l'idée qu'en dépit de leur équivalence formelle, leurs propriétés computationnelles sont très différentes. En effet, en raison de la parcimonie héritée par la version discrétisée de l'EDP (incarnée par l'opérateur d'analyse), l'approche coparcimonieuse passe bien plus favorablement à l'échelle que le problème équivalent régularisé par parcimonie à la synthèse. Nos constatations sont illustrées dans le cadre de deux applications : la localisation de sources acoustiques, et la localisation de sources de crises épileptiques à partir de signaux électro-encéphalographiques. Dans les deux cas, nous vérifions que l'approche coparcimonieuse démontre de meilleures capacités de passage à l'échelle, au point qu'elle permet même une interpolation complète du champ de pression dans le temps et en trois dimensions. De plus, dans le cas des sources acoustiques, l'optimisation fondée sur le modèle d'analyse \emph{bénéficie} d'une augmentation du nombre de données observées, ce qui débouche sur une accélération du temps de traitement, plus rapide que l'approche de synthèse dans des proportions de plusieurs ordres de grandeur. Nos simulations numériques montrent que les méthodes développées pour les deux applications sont compétitives face à des algorithmes de localisation constituant l'état de l'art. Pour finir, nous présentons deux méthodes fondées sur la parcimonie à l'analyse pour l'estimation aveugle de la célérité du son et de l'impédance acoustique, simultanément à l'interpolation du champ sonore. Ceci constitue une étape importante en direction de la mise en œuvre de nos méthodes en en situation réelle.
|
|
Traitement du signal et télécommunications
/ 24-11-2015
Mantilla Jauregui Juan José
Voir le résumé
Voir le résumé
Dans cette étude, nous abordons l'utilisation de la représentation parcimonieuse et l'apprentissage de dictionnaires pour l'aide au diagnostic dans le contexte de Maladies Cardiovasculaires. Spécifiquement, notre travail se concentre : 1) sur l'évaluation du mouvement des parois du Ventricule Gauche (VG) chez des patients souffrant d'Insuffisance Cardiaque (IC) ; 2) la détection de fibrose chez des patients présentant une Cardiomyopathie Hypertrophique (CMH). Ces types de pathologies sont étudiées par ailleurs en Imagerie par Résonance Magnétique Cardiaque (IRMC).
Dans le contexte de l'IC notre contribution porte sur l'évaluation de mouvement du VG dans des séquences cine-IRMC. Nous proposons dans un premier temps, une méthode d'extraction de caractéristiques qui exploite les informations partielles obtenues à partir de toutes les phases cardiaques temporelles et des segments anatomiques, dans une représentation spatio-temporelle en cine-IRM petit axe (SAX). Les représentations proposées exploitent les informations du mouvement des parois du VG sans avoir recours à la segmentation et disposent des informations discriminatoires qui pourraient contribuer à la détection et à la caractérisation de l'asynchronisme cardiaque. L'extraction d'images spatio-temporelles a été proposée permettant la construction de trois nouveaux types de représentations : 1) profils spatio-temporels diamétraux qui montrent l'évolution temporelle de l’épicarde et de l'endocarde en même temps dans deux segments anatomiques opposés du VG, 2) profils spatio-temporels radiaux où le mouvement pariétal est observé pour chaque segment de la cavité du VG et 3) courbes de signal temps-intensité directement des profils spatio-temporels radiaux dans chaque segment anatomique. Des paramètres différents sont alors définis de ces courbes qui reflètent les informations dynamiques de la contraction du VG. Deuxièmement, nous proposons l'utilisation de ces caractéristiques comme des atomes d'entrée dans l'apprentissage de dictionnaires discriminatoires pour classifier le mouvement régional du VG dans les cas normaux ou anormaux. Nous avons proposé une évaluation globale en utilisant le statut global du sujet : Normal/Pathologique, comme l'étiquette de référence des profils spatio-temporels et une évaluation locale en utilisant les informations de déformation locales fournies par l'analyse des images échographiques de référence en clinique (2D-STE). Dans le contexte de la CMH, nous abordons le problème de détection de la fibrose en LGE-IRM-SAX en utilisant une approche de partitionnement de donnés et d'apprentissage de dictionnaires. Dans ce cadre, les caractéristiques extraites d'images de LGE-SAX sont prises comme des atomes d'entrée pour former un classifieur basé sur les codes parcimonieux obtenus avec une approche d'apprentissage de dictionnaires. Une étape de post-traitement permet la délimitation du myocarde et la localisation spatiale de la fibrose par segment anatomique.
|
|
Traitement du signal et télécommunications
/ 23-11-2015
Souviraa-Labastie Nathan
Voir le résumé
Voir le résumé
Lorsque l'on manipule un signal audio, il est généralement utile d'opérer un isolement du ou des éléments sonores que l'on cherche à traiter. Cette étape est couramment appelée séparation de sources audio. Il existe de nombreuses techniques pour estimer ces sources et plus on prend en compte d'informations à leur sujet plus la séparation a des chances d'être réussie. Une façon d'incorporer des informations sur une source est l'utilisation d'un signal de référence qui va donner une première approximation de cette source. Cette thèse s'attache à explorer les aspects théoriques et appliqués de la séparation de sources audio guidée par signal de référence. La nouvelle approche proposée appelée SPOtted REference based Separation (SPORES) examine le cas particulier où les références sont obtenues automatiquement par détection de motif, c'est-à-dire par une recherche de contenu similaire. Pour qu'une telle approche soit utile, le contenu traité doit comporter une certaine redondance ou bien une large base de données doit être disponible. Heureusement, le contexte actuel nous permet bien souvent d'être dans une des deux situations et ainsi de retrouver ailleurs des motifs similaires. L'objectif premier de ce travail est de fournir un cadre théorique large qui une fois établi facilitera la mise au point efficace d'outils de traitement de contenus audio variés. Le second objectif est l'utilisation spécifique de cette approche au traitement de bandes-son de films avec par exemple comme application leur conversion en format surround 5.1 adapté aux systèmes home cinéma.
|
|