Tri :
Date
Titre
Auteur
|
|
Traitement du signal et télécommunications
/ 23-11-2017
Jouadé Antoine
Voir le résumé
Voir le résumé
Les travaux présentés dans cette thèse sont une contribution à l’étude des systèmes d’imagerie active en bande millimétrique et plus spécifiquement sur les parties antennaires et le traitement de signal. Ces travaux ont été menés dans le cadre d’une collaboration entre Canon Research Center France et l’ETR. Une première étude a porté sur les antennes focalisantes et plus spécifiquement sur la lentille de Fresnel avec un procédé de fabrication de matériau à gradient d’indice qui a permis d’améliorer l’efficacité (59%) et la largeur bande de fréquence (75-110 GHz). Cette antenne a été utilisée sur un système rotatif pour imager une scène réelle extérieure. L’étude s’est ensuite focalisée sur la conception d’une configuration Multiple-Input Multiple-Output ou MIMO (entrées multiples, sorties multiples) grâce notamment à l’utilisation d’un dispositif compressif passif 4×1 permettant de réduire, par compression, le nombre de chaînes RF. Ces chaînes sont décompressées par post-traitement. Le dispositif, placé à l’émission, a été associé avec un scanner qui permet de synthétiser un réseau d’antennes à la réception. Cette configuration a permis de générer virtuellement un réseau de plus grande taille, permettant d’améliorer la résolution azimutale du système tout en limitant le nombre de chaînes RF. Cette configuration est utilisée pour imager une scène en chambre anéchoique afin de valider le concept. Pour améliorer encore plus la résolution du système avec un nombre limité de chaînes RF, l’étude d’algorithmes de haute-résolution, ou méthodes d’estimation spectrales, sont utilisés dans des configurations à large bande de fréquences pour imager des cibles en champs proche. L’association de la configuration MIMO, du dispositif compressif passif et des méthodes d’estimation spectrales permet d’améliorer la résolution du système tout en limitant le nombre de chaînes RF nécessaire.
|
|
Traitement du signal et télécommunications
/ 23-11-2017
Roux Baptiste
Voir le résumé
Voir le résumé
Au cours de la dernière décennie, la conception des systèmes embarqués a évolué dans l'optique d'augmenter la puissance de calcul tout en conservant une faible consommation d'énergie. À titre d'exemple, les véhicules autonomes tels que les drones sont un domaine d'application représentatif qui combine de la vision, des communications sans fil avec d'autres noyaux de calculs intensifs, le tout avec un budget énergétique limité. Avec l'avènement des systèmes multicœurs sur puce (MpSoC), la simplification des processeurs a diminué la consommation d'énergie par opération, alors que leur multiplication a amélioré les performances. Cependant, l'apparition du phénomène de ''dark silicon'' a conduit à l'intégration d'accélérateurs matériels spécialisés au sein des systèmes multicœurs. C'est ainsi que sont nées les architectures massivement multicœurs hétérogènes (HMpSoC) combinant des processeurs généralistes (SW) et des accélérateurs matériels (HW). Pour ces architectures hétérogènes, les performances et la consommation d'énergie dépendent d'un large ensemble de paramètres tels que le partitionnement HW/SW, le type d'implémentation HW et le coût de communication entre les organes de calcul HW et SW conduisant ainsi à un immense espace de conception. Dans cette thèse, nous étudions des méthodes permettant la réduction de la complexité de développement et de mise en oeuvre d'applications efficaces en énergie sur HMpSoC. De nombreuses contributions sont proposées pour améliorer les outils d'exploration de l'espace de conception (DSE) avec des objectifs énergétiques. Tout d'abord, une définition formelle de la structure HMpSoC est introduite ainsi qu'une méthode de représentation générique axée sur la hiérarchie mémoire. Ensuite, un outil de modélisation rapide de l'énergie est proposé et validé sur plusieurs applications. Ce modèle énergétique sépare les sources d'énergie en trois catégories (calcul statique, dynamique et communications) et calcule leurs contributions sur la consommation globale de manière indépendante. Basée sur une étude précise des communications, cette approche calcule rapidement la consommation d'énergie pour une répartition donnée d'application sur un HMpSoC. Dans un deuxième temps, nous proposons une méthodologie permettant l'exploration énergétique d'accélérateurs sur HmpSoC. Cette méthode s'appuie sur le modèle de consommation précédent couplé à une formulation de programmation linéaire en nombre entier mixte (MILP). Cela permet de sélectionner efficacement les accélérateurs HW et le partitionnement HW/SW et ainsi d'obtenir une implémentation efficace en énergie pour une application tuilée. Les expériences réalisées ont montré la complexité du processus de validation d'outils/algorithmes de DSE sur une large gamme d'applications et d'architectures. Afin de résoudre ce problème, nous proposons un simulateur d'architectures HMpSoC intégrant un modèle de consommation permettant d'observer l'exécution d'applications. La structure de l'architecture cible est décrite à l'aide d'un fichier de configuration basé sur le modèle de représentation générique précédent. Ce fichier est chargé dynamiquement lors du démarrage du simulateur. De plus, ce simulateur est associé à un générateur d'applications permettant la création d'un large ensemble d'applications représentatives du domaine. Ce générateur se base sur un ensemble de schémas de calcul et de communication élémentaire qu'il combine pour obtenir une application complète. Les applications ainsi obtenues peuvent être enrichies par des informations de placement et automatiquement exécutées sur le simulateur. Cet ensemble d'outils a pour objectif de faciliter la validation de nouveaux algorithmes ciblant le placement efficace en énergie d'application sur une large gamme d'architectures HMpSoC.
|
|
Traitement du signal et télécommunications
/ 10-11-2017
Calvo Gonźalez Mireia
Voir le résumé
Voir le résumé
Le syndrome de Brugada (BS) est une maladie génétique responsable de troubles du rythme cardiaque. En raison de la nature complexe et multifactorielle de cette pathologie, la stratification du risque peut s’avérer particulièrement difficile et il est nécessaire de pouvoir définir de nouveaux marqueurs avec des valeurs prédictives élevées afin d’identifier les patients à haut risque. Les événements arythmiques dans cette population étant souvent liés à des modifications de fonctionnement du système nerveux autonome (SNA), l’objectif de la thèse est l’évaluation et comparaison de la réponse cardiovasculaire aux modulations du SNA pendant la nuit, ainsi qu'en réponse à des manœuvres normalisées, telles que l'épreuve d'effort ou le test d'orthostatisme, chez une série de patients BS présentant différents niveaux de risque (sujets symptomatiques et asymptomatiques). Une première partie du travail de thèse est dédiée à l’application de méthodes d'analyse de complexité cardiaque, de sensibilité baroréflexe et de variabilité non-stationnaire du rythme cardiaque, jamais étudiées dans le cadre des patients BS. Dans une deuxième partie, afin d'aborder la nature multifactorielle de la maladie, une approche multivariée basée sur une méthode de machine learning est introduite. En employant des marqueurs extraits à l'analyse du traitement du signal précédent, des classificateurs robustes capables de distinguer les patients à différents niveaux de risque sont proposés. Dans la troisième partie de ce travail, deux modèles mathématiques de connaissances ont été proposés et analysés, afin d'étudier les réponses autonomiques et hémodynamiques au test d’orthostatisme et à l’épreuve d’effort. Enfin, une application prospective d’une approche multivariée intégrant les paramètres extraits à l'étape de modélisation est également présentée. L’ensemble des résultats de la thèse permet une meilleure caractérisation des profils autonomiques des patients BS et laisse envisager une amélioration de la sélection des patients pour implantation d'un défibrillateur implantable.
|
|
Traitement du signal et télécommunications
/ 09-11-2017
Belhabib Mounia
Voir le résumé
Voir le résumé
La nécessité d'une transmission sans fils des données à des débits élevés, à la fois fiables et avec de faible latence a donné lieu à ces dernières années à une succession de normes sans fil, allant de 3G-4G, WLAN à la cinquième génération (5G) des réseaux mobiles. Dans ce contexte, les équipementiers, ainsi que les opérateurs, doivent élaborer des méthodes d'essai standard précises et efficaces pour évaluer les performances des systèmes et des terminaux. Les méthodologies de test en direct par voie aérienne ("Over-The-Air") (OTA) visent à reproduire des environnements multi-trajets radio en laboratoire de manière répétable et contrôlable, en évitant les coûteuses mesures in-situ. L'objectif de cette thèse est de proposer une nouvelle méthodologie d'essai OTA, afin de reproduire la propagation des canaux radio, sur une large bande et d'évaluer les performances des systèmes sans fil dans des environnements réels. La thèse débute en présentant les bases de la chaîne radio et de certains modèles de chaînes présentés dans la littérature. Ensuite, un examen critique des méthodologies OTA existantes dans la littérature est fourni. Parmi les différentes méthodologies, nous avons opté pour l'approche de la chambre anéchoïde multi-sonde, qui consiste à déployer un certain nombre de sondes autour d'un équipement radio sous test et à les alimenter avec un émulateur d’évanouissements (fading). Cette méthodologie fournit une reproduction précise des caractéristiques des canaux spatiaux, qui sont nécessaires pour évaluer la performance des terminaux multi-antennes dans des environnements réels. L'avantage le plus important de cette méthodologie est la capacité d'imiter différents modèles de canaux en termes de résolution spatiale, d’évanouissements angulaire et temporel. Un outil de simulation a été développé pour étudier et déterminer les caractéristiques de l'installation OTA pour différents types de canaux d’intérêt. En particulier, le nombre et la mise en place des antennes nécessaires et la taille de l'installation ont été étudiés en fonction de la taille électrique du dispositif testé. Sur la base des études de dimensionnement, une configuration OTA expérimentale a été réalisée pour reproduire les caractéristiques des canaux dans l'espace tridimensionnel pour une plage de fréquences de 2 à 6 GHz.
|
|
Traitement du signal et télécommunications
/ 08-11-2017
Berrabah Nassif
Voir le résumé
Voir le résumé
Les câbles électriques sont présents dans de nombreux produits et systèmes où ils sont utilisés pour transmettre des données ou transporter de l'énergie. Ces liaisons sont la plupart du temps installées pour des durées d'exploitation longues au cours desquelles elles doivent subir l'usure du temps, ainsi que celle résultant d'un environnement parfois agressif. Alors que les câbles électriques assurent des fonctions essentielles et dans certains cas critiques, ils sont aussi sujets à des défaillances qui découlent des contraintes qu'ils endurent. Ceci explique la nécessité de surveiller leur état, afin de détecter au plus tôt les défauts naissants et d'intervenir avant qu'ils ne dégénèrent en dommages dont les conséquences peuvent être préjudiciable et économiquement lourdes. L'entreprise EDF est particulièrement concernée par cette problématique dans la mesure ou elle exploite des longueurs considérables de câbles pour le transport et la distribution d'électricité sur tout le territoire bien sûr, mais aussi au sein des centrales qui produisent l'électricité, pour alimenter les différents organes, et acheminer commandes et mesures. L'entreprise, attentive à ce que ces câbles soient en bon état de fonctionnement mène plusieurs travaux, d'une part pour étudier leur vieillissement et modes de dégradation, et d'autre part pour développer des méthodes et outils pour la surveillance et le diagnostic de ces composants essentiels. Le projet EDF CAIMAN (Cable AgIng MANagement) commandé par le SEPTEN (Service Etudes et Projets Thermiques Et Nucléaires) traite de ces questions, et les travaux présentés dans cette thèse ont été conduits dans ce cadre et sont le fruit d'une collaboration avec Inria (Institut National de Recherche en Informatique et Automatique). Partant du constat que les méthodes de diagnostic de câbles existantes à l'heure actuelle ne donnent pas pleine satisfaction, nous nous sommes donné pour objectif de développer des outils nouveaux. En effet, les techniques actuelles reposent sur différents moyens dont des tests destructifs, des prélèvements pour analyse en laboratoire, et des mesures sur site mais qui ne permettent pas de diagnostiquer certains défauts. Parmi les techniques non destructives, la réflectométrie, dont le principe est d'injecter un signal électrique à une extrémité du câble et d'analyser les échos, souffre aussi de certaines de ces limitations. En particulier, les défauts non-francs restent encore difficiles à détecter. Toutefois les travaux qui se multiplient autour de cette technique tentent d'en améliorer les performances, et certains obtiennent des résultats prometteurs. Les chercheurs de l'Inria qui travaillent sur le sujet ont développé des algorithmes pour exploiter des mesures de réflectométrie. En résolvant un problème inverse, les paramètres d'un modèle de câble sont estimés et servent alors d'indicateurs de l'état de dégradation du câble testé. L'objectif de cette thèse est d'étendre ces méthodes pour répondre aux besoins spécifiques d'EDF. Un des principaux défis auquel nous avons apporté une solution est la prise en compte des pertes ohmiques dans la résolution du problème inverse. Plus spécifiquement, notre contribution principale est une méthode d'estimation du profil de résistance linéique d'un câble. Cette estimation permet de révéler les défauts résistifs qui produisent souvent des réflexions faibles dans les réflectogrammes habituels. Une seconde contribution vise à améliorer la qualité des données utilisées par cette méthode d'estimation. Ainsi, nous proposons un pré-traitement des mesures dont le but est de gommer l'effet de la désadaptation des instruments aux câbles ou celui des connecteurs. Ces travaux apportent de nouveaux outils pour l'exploitation des mesures de réflectométrie et des solutions pour le diagnostic de certains défauts encore difficiles à détecter aujourd'hui.
|
|
Électronique
/ 26-10-2017
Méjean Chloé
Voir le résumé
Voir le résumé
Ces travaux de thèse ont porté sur l’étude de nouveaux matériaux pour l’absorption électromagnétique en chambre anéchoïque. Ce sujet a été imaginé à partir de l’étude d’une nouvelle matrice jusqu’alors jamais utilisée pour les absorbants électromagnétiques : la mousse époxy. Cette dernière présente en effet de nombreux avantages par rapport aux matrices habituellement utilisées dans le commerce : possibilité de réaliser des formes complexes, piégeage de la charge au cœur du matériau… Nous avons associé cette matrice avec différentes charges carbonées (noir de carbone, graphite et des fibres longues de carbone). L’association de la mousse époxy avec des fibres de carbone millimétriques a montré d’excellentes performances d’absorption pour un taux de charge très faibles : 0,5 %wt (S11 ≈ -40 dB entre 4 et 18 GHz en incidences normale et oblique). En variant la longueur des fibres de carbone, nous avons mis en évidence qu’il était possible d’améliorer les performances d’absorption en basses fréquences en utilisant des fibres plus longues. Enfin, nous avons dirigé nos recherches sur la réalisation d’un matériau absorbant ‘Vert’ à partir d’une matrice de liège. Ces nouveaux matériaux, réalisés à partir de matières biosourcées, ont montré de meilleures performances d’absorption qu’un absorbant du commerce de mêmes dimensions en incidence normale (S11 = -53 dB et S11 = - 27 dB respectivement à 4,2 GHz) et en incidence oblique (S11 = -50 dB et S11 = -30 dB respectivement à 4,2 GHz) et constituent donc des candidats potentiels pour le remplacement des matériaux absorbants du commerce actuels.
|
|
Traitement du signal et télécommunications
/ 23-10-2017
Martin Alexis
Voir le résumé
Voir le résumé
Avec le développement de l’internet des objets et l’augmentation des applications sans fil, les antennes sont de plus en plus présentes au quotidien. Cependant, l’implantation de ces antennes est un challenge tant d’un point de vue technologique (intégration des antennes dans les dispositifs), que psychologique (acceptabilité des antennes par le grand public). Dans ce contexte, le développement d’antennes optiquement transparentes permet non seulement leur implantation sur de nouvelles surfaces (vitrages d’immeubles, écrans de smartphones ...), mais promeut aussi leur acceptabilité par le grand public grâce à leur faible impact visuel. Ce travail présente la conception, la fabrication et la caractérisation d’antennes actives optiquement transparentes. Le matériau transparent et conducteur utilisé est un maillage métallique à pas micrométrique développé spécifiquement, alliant conductivité électrique et transparence optique élevées. Dans ce cadre, un premier prototype d’antenne transparente et miniature en bande FM utilisant un transistor MESFET de dimensions sub-millimétriques a été réalisé. Des antennes agiles en fréquence en bande X (~10 GHz) couplées, soit à une diode varicap localisée (agilité ~10%), soit à un matériau ferroélectrique (agilité ~2%), ont été développées et étudiées. Une antenne passive transparente a été conçue en bande V (~60 GHz). Enfin, une transition optique (1540 nm) / hyperfréquence (1,4 GHz) a été réalisée et caractérisée, basée sur la transmission optique d’un faisceau laser au travers du matériau constitutif de l’antenne. Pour l’ensemble des prototypes réalisés, une transparence optique supérieure à 80% dans le domaine du visible associée à une résistance par carré inférieure à 0,1 ohm/sq ont été utilisées.
|
|
Traitement du signal et télécommunications
/ 05-10-2017
Kaverine Evgueni
Voir le résumé
Voir le résumé
Les objectifs de ce travail concernent l'étude, la conception et la caractérisation d'antennes miniatures actives ou passives, large bande ou bande étroite fonctionnant en bandes MF, HF et VHF. Le manuscrit est divisé en cinq parties : La première partie présente un système de caractérisation d'antennes qui a été développé, validé et utilisé pour tous les aériens conçus. Ce système, basé sur une cellule à plaque parallèles (PPC), permet un large spectre de mesures telles que la mesure du gain, du point de compression, de l'intermodulation et de la sensibilité via une méthode rayonnée, particulièrement intéressante dans le cas des antennes actives intégrées. La deuxième partie concerne les antennes solénoïdales sur ferrite. L'utilisation de simulateurs électromagnétiques 3D a permis d'obtenir des résultats qui sont comparés à la théorie proposée dans la littérature. Les principaux systèmes d'adaptation d'impédance sont également étudiés. La troisième partie met en avant la possibilité de concevoir des antennes à substrat ferromagnétique de géométrie non conventionnelle en utilisant des matériaux composites. Deux antennes miniatures fabriquées et fonctionnant en bande VHF permettent d'illustrer ce point. Dans la quatrième partie, nous présentons un concept d'antennes à substrat ferromagnétique partiellement saturé. L'utilisation d'une source de champ magnétique statique associée à un matériau initialement dispersif permet de constater un certain nombre de phénomènes intéressants, tels que l'amélioration de l'efficacité tout en préservant l'adaptation de l'antenne ou bien la création de directivité sur des antennes électriquement très compactes. La dernière partie présente la valorisation du travail à travers un projet de télécommunication hertzienne longue portée s'inscrivant dans le cadre de la navigation maritime.
|
|
Traitement du signal et télécommunications
/ 02-10-2017
El Hajj Chehade Bassam
Voir le résumé
Voir le résumé
Dans le cycle de carbone à l'échelle de la planète, la contribution des forêts tropicales, en tant que stock de carbone, est déterminante. Les études actuelles montrent que la connaissance précise de la biomasse forestière globale est nécessaire pour les modèles de prévision. C'est dans ce contexte que le projet BIOMASS est choisi par l'Agence spatiale européenne (ESA) comme une phase A du programme «Earth Core Mission». L'objectif de cette mission innovatrice est l'utilisation d'un système d'imagerie polarimétrique fonctionnant en bande P (435 MHz) pour la mesure de la biomasse forestière. La définition actuelle de la mission prévoit un mode tomographique rassurant une imagerie tri-dimentionnelle (3-D) de la forêt. Dans le cadre du projet BIOMASS, cette thèse de doctorat vise à développer une nouvelle stratégie pour la télédétection de la biomasse dans les forêts tropicales en utilisant des données multi-baseline acquises par le radar à ouverture synthétique (SAR) en bande P. Une approche originale consite à combiner la tomographie et le modèle RvoG (Random-Volume-over-Ground) établi et vérifié avec la technique PolInSAR (polarimetric SAR Interferometry). L'environnement forestier peut être décrit avec précision par un modèle polarimétrique multicouche (sol et succession de couches végétales). Une généralisation multi-baseline du modèle RVoG implique un certain nombre de paramètres qui peuvent être estimés à partir des données SAR en utilisant des méthodes spectrales haute résolution. Ainsi, une cartographie de la forêt et du sol peut être réalisée à l'aide de données tomographiques. De plus, la capacité des techniques tomographiques permet d'estimer la distribution verticale de la puissance rétrodiffusée. Ainsi, une information précise sur la biomasse peut être extraite de la puissance mesurée dans un domaine adapté à la couche de végétation. Cependant, cette puissance mesurée peut être fortement affectée par l'écho du sol dû à la contribution de double rebond. Et par suite, le principal défi peut être résumé par l'élaboration d'un nouvel estimateur de la biomasse forestière lié à une puissance rétrodiffusée mesurée avec une polarisation et un domaine vertical, tous les deux sont adaptés à la couche de végétation. Les algorithmes développés pour la cartographie de la forêt, l'estimation et la simulation de la biomasse sont appliqués et validés sur des données SAR aéroportées réalisées lors de la campagne TROPISAR en Guyane.
|
|
Traitement du signal et télécommunications
/ 22-09-2017
Ragavan Rengarajan
Voir le résumé
Voir le résumé
Les techniques de gestion dynamique de la tension (DVS) sont principalement utilisés dans la conception de circuits numériques pour en améliorer l'efficacité énergétique. Cependant, la réduction de la tension d'alimentation augmente l'impact de la variabilité et des erreurs temporelles dans les technologies nano-métriques. L'objectif principal de cette thèse est de gérer les erreurs temporelles et de formuler un cadre pour estimer la consommation d'énergie d'applications résistantes aux erreurs dans le contexte du régime proche du seuil (NTR) des transistors. Dans cette thèse, la détection et la correction d'erreurs basées sur la spéculation dynamique sont explorées dans le contexte de l'adaptation de la tension et de la fréquence d‘horloge. Outre la détection et la correction des erreurs, certaines erreurs peuvent être également tolérées et les circuits peuvent calculer au-delà de leurs limites avec une précision réduite pour obtenir une plus grande efficacité énergétique. La méthode de détection et de correction d'erreur proposée atteint 71% d'overclocking avec seulement 2% de surcoût matériel. Ce travail implique une étude approfondie au niveau des portes logiques pour comprendre le comportement des portes sous l'effet de modification de la tension d'alimentation, de la tension de polarisation et de la fréquence d'horloge. Une approche ascendante est prise en étudiant les tendances de l'énergie par rapport a l'erreur des opérateurs arithmétiques au niveau du transistor. En se basant sur le profilage des opérateurs, un flot d'outils est formulé pour estimer les paramètres d'énergie et d'erreur pour différentes configurations. Nous atteignons une efficacité énergétique maximale de 89% pour les opérateurs arithmétiques comme les additionneurs 8 bits et 16 bits au prix de 20% de bits défectueux en opérant en NTR. Un modèle statistique est développé pour que les opérateurs arithmétiques représentent le comportement des opérateurs pour différents impacts de variabilité. Ce modèle est utilisé pour le calcul approximatif dans les applications qui peuvent tolérer une marge d'erreur acceptable. Cette méthode est ensuite explorée pour unité d'exécution d'un processeur VLIW. L'environnement proposé fournit une estimation rapide des indicateurs d'énergie et d'erreurs d'un programme de référence par compilation simple d'un programme C. Dans cette méthode d'estimation de l'énergie, la caractérisation des opérateurs se fait au niveau du transistor, et l'estimation de l'énergie se fait au niveau fonctionnel. Cette approche hybride rend l'estimation de l'énergie plus rapide et plus précise pour différentes configurations. Les résultats d'estimation pour différents programmes de référence montrent une précision de 98% par rapport à la simulation SPICE.
|
|