Tri :
Date
Titre
Auteur
|
|
Électronique
/ 15-12-2014
Samb Mamadou Lamine
Voir le résumé
Voir le résumé
Cette thèse porte sur la modélisation de TFTs à base de silicium microcristallin fabriqués à basse température. L'enjeu est de produire un modèle de TFT valide qui nous permettra d'apporter des explications sur les phénomènes observés expérimentalement et qui pourrait servir de base à un modèle compact. Tout d'abord, une étude expérimentale, dans laquelle il est montré l'effet bénéfique de l'utilisation de fines couches actives pour les TFTs, a été effectuée. En effet, plus la couche active des TFTs est fine, plus les TFTs sont stables, et meilleures sont leurs caractéristiques électriques. La croissance colonnaire de la structure du silicium microcristallin et le mauvais état de surface pour les grandes épaisseurs de couche active jouent un rôle important sur la détérioration de la qualité des TFTs. Par la suite, une simulation (sous SILVACO) du comportement des TFTs ayant des couches actives de différentes épaisseurs a été effectuée, pour essayer d'apporter des explications d'ordre électrostatique. Les mêmes effets observés sont surtout causés par une augmentation du champ électrique latéral lorsque l'épaisseur de la couche active diminue pour un matériau défectueux, favorisant ainsi la formation rapide du canal. La mauvaise qualité des interfaces avant et arrière a aussi une forte influence sur la détérioration des caractéristiques électriques de TFTs. Cette influence est réduite en utilisant une très fine couche active.
|
|
Traitement du signal et télécommunications
/ 15-12-2014
Barbu Ioana
Voir le résumé
Voir le résumé
L'analyse du mouvement en 3 dimensions (3D) des fluides turbulents à évoluée vers un cadre nécessitant (i). un système de capteurs puissants (ii). le développement d'outils d'estimation de basse complexité (iii). des connaissances a priori issues de la physique du fluide. Des nouvelles techniques formulées dans ce contexte et s'appuyant sur le traitement d'images ont été proposées. Leur méthodologie repose sur la conjugaison du savoir propre à la communauté Vision par Ordinateur avec des modèles physiques de la dynamiques du fluide. Mais voilà, la plupart de ces procédures sont exprimées dans un cadre bidimensionnel (2D), dans le sens où elles reconstruisent un champ 2D à partir des deux images consécutives 2D ; dès lors, ces-dernières ne sont pas adaptées pour certains régimes du fluide. Récemment, des nouvelles contributions ont proposé l'estimation du champ 3D des fluides à partir des densités volumiques préalablement reconstruites. De plus, une amélioration de ces schémas classiques suggère un apport signifiant en netteté de la reconstruction dans un cadre joint d'estimation volume-mouvement. Motivés par ces développements, nous proposons dans cette étude une alternative au schéma joint déjà présent dans la littérature afin d'estimer la vitesse 3D des fluides à partir de plusieurs séquences synchronisées d'images 2D. Le cadre théorique de cette thèse a été présenté en connexion avec les communautés de la Vision par Ordinateur, du Traitement du Signal et de la Tomographie PIV. Notre travail peut être divisé en trois tâches majeures : (i). la formulation d'un modèle proche de la physique du système observé (ii). la conception des algorithmes de reconstruction volumique de basse complexité qui prennent en compte des particularités notables sur le système (iii). l'élaboration d'un schéma de reconstruction des champs de vitesse qui considère des scénarios bruités et la structure cohérente volumique entre deux instants. Nous évaluons les performances de nos méthodes sur des scènes réalistes représentant le signal de Tomographie PIV.
|
|
Traitement du signal et télécommunications
/ 10-12-2014
Ouedraogo Ganda Stéphane
Voir le résumé
Voir le résumé
L'internet des objets vise à connecter des milliards d'objets physiques ainsi qu'à les rendre accessibles depuis le monde numérique que représente l'internet d'aujourd'hui. Pour ce faire, l'accès à ces objets sera majoritairement réalisé sans fil et sans utiliser d'infrastructures prédéfinies ou de normes spécifiques. Une telle technologie nécessite de définir et d'implémenter des nœuds radio intelligents capables de s'adapter à différents protocoles physiques de communication. Nos travaux de recherches ont consisté à définir un flot de conception pour ces nœuds intelligents partant de leur modélisation à haut niveau jusqu'à leur implémentation sur des cibles de types FPGA. Ce flot vise à améliorer la programmabilité des formes d'ondes par l'utilisation de spécification de haut niveau exécutables et synthétisables, il repose sur la synthèse de haut niveau (HLS pour High Level Synthesis) pour le prototypage rapide des briques de base ainsi que sur le modèle de calcul de types flot de données des formes d'ondes radio. Le point d'entrée du flot consiste en un langage à usage spécifique (DSL pour Domain Specific Language) qui permet de modéliser à haut niveau une forme d'onde tout en insérant des contraintes d'implémentation pour des architectures reconfigurables telles que les FPGA. Il est associé à un compilateur qui permet de générer du code synthétisable ainsi que des scripts de synthèse. La forme d'onde finale est composée d'un chemin de données et d'une entité de contrôle implémentée sous forme d'une machine d'état hiérarchique.
|
|
Traitement du signal et télécommunications
/ 08-12-2014
Texier Matthieu
Voir le résumé
Voir le résumé
Le nombre de smartphones vendus a récemment dépassé celui des ordinateurs. Ces appareils tendent à regrouper de plus en plus de fonctions, ceci grâce à des applications de plus en plus variées telles que la vidéo conférence, la réalité augmentée, ou encore les jeux vidéo. Le support de ces applications est assuré par des ressources de calculs hétérogènes qui sont spécifiques aux différents types de traitements et qui respectent les performances requises et les contraintes de consommation du système. Les applications graphiques, telles que les jeux vidéo, sont par exemple accélérées par un processeur graphique. Cependant les applications deviennent de plus en plus complexes. Une application de réalité augmentée va par exemple nécessiter du traitement d'image, du rendu graphique et un traitement des informations à afficher. Cette complexité induit souvent une variation de la charge de travail qui impacte les performances et donc les besoins en puissance de calcul de l'application. Ainsi, la parallélisation de l'application, généralement prévue pour une certaine charge, devient inappropriée. Ceci induit un gaspillage des ressources de calcul qui pourraient être exploitées par d'autres applications ou par d'autres étages de l'application. Un pipeline de rendu graphique a été choisi comme cas d'utilisation car c'est une application dynamique et qui est de plus en plus répandu dans les appareils mobiles. Cette application a été implémentée et parallélisée sur un simulateur d'architecture multi-cœurs. Un profilage a confirmé l'aspect dynamique, le temps de calcul de chaque donnée ainsi que le nombre d'objets à calculer variant de manière significative dans le temps et que la meilleure répartition du parallélisme évolue en fonction de la scène rendue. Ceci nous a amenés à définir un système permettant d'adapter, au fil de l'exécution, le parallélisme d'une application en fonction d'une prédiction faite de ses besoins. Le choix d'un nouveau parallélisme nécessite de connaître les besoins en puissance de calcul des différents étages, en surveillant les transferts de données entre les étages de l'application. Enfin, l'adaptation du parallélisme implique une nouvelle répartition des tâches en fonction des besoins des différents étages qui est effectuée grâce à un contrôleur central. Le système a été implémenté dans un simulateur précis au niveau TTLM afin d'estimer les gains de performances permis par l'adaptation dynamique. Une architecture permettant l'accélération de différents types d'applications que ce soit généralistes ou graphiques a été définie et comparée à d'autres architectures multi-cœurs. Le coût matériel de cette architecture a de plus été quantifié. Ainsi, pour un support matériel dont la complexité est inférieure à 1,5 % du design complet, on démontre des gains de performance allant jusqu'à 20 % par rapport à certains déploiements statiques, ainsi que la capacité à gérer dynamiquement un nombre de ressources de calcul variable.
|
|
Traitement du signal et télécommunications
/ 08-12-2014
Niemiec Ronan
Voir le résumé
Voir le résumé
Une onde électromagnétique est définie par son amplitude, son vecteur d'onde, sa fréquence et son moment angulaire. Ce dernier peut être séparé en deux parties : la polarisation (associée au moment angulaire de spin), et le moment angulaire orbital. Ce dernier n'a vraiment été étudié qu'à partir de ces dernières années. Cette thèse a pour but d'approfondir les connaissances sur ce moment angulaire orbital. Des prototypes ont ainsi été réalisés, et des outils d'analyse ont été développés. Dans un premier temps, une étude du transfert de ce moment angulaire orbital à un objet macroscopique, à la fréquence de 870 MHz, est présentée. Une interprétation du mécanisme de transfert est ensuite proposée, supportée par le calcul des équations de champs et des simulations électromagnétiques. Dans un second temps, la conception et la réalisation de deux antennes, pouvant générer une onde possédant un moment angulaire orbital, sont présentées. Ces deux antennes utilisent une lame de phase avec une loi à dépendance angulaire. La première est une lame de phase dite « spirale », à permittivité constante et à hauteur variable. La seconde est une lame à gradient d'indice, à permittivité variable et à hauteur constante. Ces deux antennes ont été simulées, puis mesurées au sein de la chambre anéchoïque CHEOPS (DGA-MI, Bruz). Des cartographies sur un plan du champ ont ainsi été obtenues. Dans un dernier temps, la réflexion sur des surfaces courbes et planes, et l'influence de l'échantillonnage sur l'estimation des modes d'OAM, ont été étudiées. En ce qui concerne la réflexion, les résultats de simulations sont prometteurs, et semblent indiquer l'existence d'une relation entre les déformations du faisceau réfléchi et le type de surface. Pour l'estimation des modes d'OAM, les valeurs de champs sont extraites sur un cercle. Différents paramètres (positionnement et rayon du cercle) ont été considérés, et une méthode d'estimation des modes d'OAM sur une large bande de fréquence est proposée.
|
|
Traitement du signal et télécommunications
/ 14-11-2014
Bor Jonathan
Voir le résumé
Voir le résumé
Avec la multiplication des transmissions sans fil et l'augmentation de la taille des données à transférer, il est devenu primordial d’augmenter le débit et donc de monter en fréquence. C'est pour cela que la bande des 60 GHz (57-66 GHz) a été allouée mondialement. A cause de la forte atténuation et de la coupure éventuelle du lien émission/réception du fait de la présence humaine, les antennes à 60 GHz doivent être très souvent reconfigurables. C’est dans cette optique que Canon Research Center France et l’IETR se sont associés pour mener à bien ce travail de thèse. Un nouveau procédé de fabrication de matériau à gradient d’indice a été développé. Le fait de presser un échantillon de matériau composite contenant de l’air permet d’augmenter sa masse volumique et donc sa constante diélectrique. Cette dernière est donc contrôlable par simple pression à une température optimisée. Grâce à ce procédé, divers antennes et composants à gradient d’indice ont été réalisés. L’étude s’est principalement focalisée sur la lentille de Luneburg, qui présente une loi d’indice radiale et qui possède une infinité de points focaux autour de la lentille. Cette lentille a été réalisée avec une variation d’indice progressive et est alimentée tout d’abord par un guide d’onde ouvert. L’étude s’est ensuite focalisée sur la conception de sources intégrées afin de pouvoir les positionner côte à côte et permettre d’obtenir le dépointage du faisceau. Pour ce faire, l’utilisation de guides diélectriques intégrés rayonnant (RSIW) a été étudiée. Deux sources passives sont conçues avec respectivement une transition ligne/fente/guide et une transition avec plongeur dans le guide rayonnant. Par la suite, une troisième source a été conçue utilisant un substrat unique avec une transition ligne coplanaire/plongeur/guide afin de simplifier la technologie de réalisation. Enfin, deux prototypes actifs ont été conçus afin de faire une communication complète à 60 GHz. Des puces réceptrices intégrées de chez Hittite ont été utilisées afin d’alimenter les sources rayonnantes qui illuminent la lentille de Luneburg. L’objectif in fine était d’obtenir trois faisceaux dirigés dans des directions distinctes. Enfin, une première contribution à l’étude d’antennes en bande submillimétrique est effectuée avec la réalisation d’un cornet, d’une antenne à polarisation circulaire et d’une antenne de focalisation en champ proche.
|
|
Électronique
/ 13-11-2014
Martinis Mario
Voir le résumé
Voir le résumé
Cette thèse présente de nouveaux développements pour de petites antennes en cavité. L'objectif principal de la thèse est l'analyse de la performance de la bande passante de ces antennes pour des tailles d'ouverture qui sont petites par rapport à la longueur d'onde en espace libre. Des cavités de formes rectangulaires et circulaires intégrées dans un plan de masse infini et dans des plans de masse de dimensions latérales finies sont examinées en détail. Jusqu'à présent, dans la littérature, le choix pour ces antennes en cavités portait sur des antennes imprimées microruban (patch). L'objet de la thèse est de déterminer si les performances d'antennes en cavité de petite taille peuvent être améliorées et si oui, de quelle façon. A cet effet, nous avons tout d'abord étudié théoriquement, la limite supérieure de la bande passante pour cette configuration particulière en cavité. Nous en avons conclu que les antennes microruban intégrées dans une cavité n'atteignent pas la limite de la bande passante, ce qui est l'un des principaux résultats de la thèse. Les antennes intégrées dans une cavité avec un plan de masse infini ou fini sont ensuite analysées à l'aide de plusieurs modèles de ligne de transmission simples. Le deuxième résultat clé de la thèse un modèle de ligne de transmission spécifique et original qui montre que cette limite sur la bande passante est réellement atteignable. Par conséquent, ce modèle de ligne de transmission devient la base d'une nouvelle conception pour l'antenne en cavité. Enfin, le résultat le plus important de la thèse est la conception concrète de nouvelles antennes en cavité capables d'atteindre la performance maximale en bande passante. D'autres sujets sont abordés sont: i) la comparaison avec des structures à base d'éléments empilés en termes de bande passante, de facilité de fabrication et de coût, ii) l'extension de la limite grâce à l'inclusion de matériaux magnétiques idéaux et conducteurs magnétiques; iii) l'utilisation de la nouvelle structure d'antenne pour la constitution d'un réseau d'antennes compact; iv) les avantages de la nouvelle structure pour la réalisation d'antennes en cavité de tailles vraiment petites pour lesquelles les méthodes classiques ne permettent pas la réalisation d'antennes.
|
|
Traitement du signal et télécommunications
/ 10-11-2014
Wang Lu
Voir le résumé
Voir le résumé
La Diagonalisation Conjointe par Congruence (DCC) d'un ensemble de matrices apparaît dans nombres de problèmes de traitement du signal, tels qu'en Analyse en Composantes Indépendantes (ACI). Les développements récents en ACI sous contrainte de non négativité de la matrice de mélange, nommée ACI semi-non négative, permettent de tirer profit d'une modélisation physique réaliste des phénomènes observés tels qu'en audio, en traitement d'image ou en ingénierie biomédicale. Par conséquent, durant cette thèse, l'objectif principal était non seulement de concevoir et développer des algorithmes d'ACI semi-non négative basés sur de nouvelles méthodes de DCC non négative où la matrice de passage recherchée est non négative, mais également d'illustrer leur intérêt dans le cadre d'applications pratiques de séparation de sources. Les algorithmes de DCC non négative proposés exploitent respectivement deux stratégies fondamentales d'optimisation. La première famille d'algorithmes comprend cinq méthodes semi-algébriques, reposant sur la méthode de Jacobi. Cette famille prend en compte la non négativité par un changement de variable carré, permettant ainsi de se ramener à un problème d'optimisation sans contrainte. L'idée générale de la méthode de Jacobi est de i) factoriser la matrice recherchée comme un produit de matrices élémentaires, chacune n'étant définie que par un seul paramètre, puis ii) d'estimer ces matrices élémentaires l'une après l'autre dans un ordre spécifique. La deuxième famille compte un seul algorithme, qui utilise la méthode des directions alternées. Un tel algorithme est obtenu en minimisant successivement le Lagrangien augmenté par rapport aux variables et aux multiplicateurs. Les résultats expérimentaux sur les matrices simulées montrent un gain en performance des algorithmes proposés par comparaison aux méthodes DCC classiques, qui n'exploitent pas la contrainte de non négativité. Il semble que nos méthodes peuvent fournir une meilleure précision d'estimation en particulier dans des contextes difficiles, par exemple, pour de faibles valeurs de rapport signal sur bruit, pour un petit nombre de matrices à diagonaliser et pour des niveaux élevés de cohérence de la matrice de passage. Nous avons ensuite montré l'intérêt de nos approches pour la résolution de problèmes pratiques de séparation aveugle de sources. Pour n'en citer que quelques-uns, nous sommes intéressés à i) l'analyse de composés chimiques en spectroscopie par résonance magnétique, ii) l'identification des profils spectraux des harmoniques (par exemple, de notes de piano) d'un morceau de musique mono-canal par décomposition du spectrogramme, iii) l'élimination partielle du texte se trouvant au verso d'une feuille de papier fin. Ces applications démontrent la validité et l'intérêt de nos algorithmes en comparaison des méthodes classique de séparation aveugle de source.
|
|
Traitement du signal et télécommunications
/ 20-10-2014
Taher Akar
Voir le résumé
Voir le résumé
Les images hyperspectrales sont des images complexes qui ne peuvent être partitionnées avec succès en utilisant une seule méthode de classification. Les méthodes de classification non coopératives, paramétriques ou non paramétriques peuvent être classées en trois catégories : supervisée, semi-supervisée et non supervisée. Les méthodes paramétriques supervisées nécessitent des connaissances a priori et des hypothèses sur les distributions des données à partitionner. Les méthodes semi-supervisées nécessitent des connaissances a priori limitées (nombre de classes, nombre d'itérations), alors que les méthodes de la dernière catégorie ne nécessitent aucune connaissance. Dans le cadre de cette thèse un nouveau système coopératif et non supervisé est développé pour le partitionnement des images hyperspectrales. Son originalité repose sur i) la caractérisation des pixels en fonction de la nature des régions texturées et non-texturées, ii) l'introduction de plusieurs niveaux d'évaluation et de validation des résultats intermédiaires, iii) la non nécessité d'information a priori. Le système mis en ouvre est composé de quatre modules: Le premier module, partitionne l'image en deux types de régions texturées et non texturées. Puis, les pixels sont caractérisés en fonction de leur appartenance à ces régions. Les attributs de texture pour les pixels appartenant aux régions texturées, et la moyenne locale pour les pixels appartenant aux régions non texturées. Le deuxième module fait coopérer parallèlement deux classifieurs (C-Moyen floue : FCM et l'algorithme Adaptatif Incrémental Linde-Buzo-Gray : AILBG) pour partitionner chaque composante. Pour rendre ces algorithmes non supervisés, le nombre de classes est estimé suivant un critère basé sur la dispersion moyenne pondérée des classes. Le troisième module évalue et gère suivant deux niveaux les conflits des résultats de classification obtenus par les algorithmes FCM et AILBG optimisés. Le premier identifie les pixels classés dans la même classe par les deux algorithmes et les reportent directement dans le résultat final d'une composante. Le second niveau utilise un algorithme génétique (GA), pour gérer les conflits entre les pixels restant. Le quatrième module est dédié aux cas des images multi-composantes. Les trois premiers modules sont appliqués tout d'abord sur chaque composante indépendamment. Les composantes adjacentes ayant des résultats de classification fortement similaires sont regroupées dans un même sous-ensemble et les résultats des composantes de chaque sous-ensemble sont fusionnés en utilisant le même GA. Le résultat de partitionnement final est obtenu après évaluation et fusion par le même GA des différents résultats de chaque sous-ensemble. Le système développé est testé avec succès sur une grande base de données d'images synthétiques (mono et multi-composantes) et également sur deux applications réelles: la classification des plantes invasives et la détection des pins.
|
|
Traitement du signal et télécommunications
/ 13-10-2014
Didioui Amine
Voir le résumé
Voir le résumé
Les progrès technologiques accomplis durant ces dernières décennies dans les domaines des microsystèmes et des radiocommunications nous permettent de réaliser des composants communicants miniaturisés à faible coût afin de constituer des réseaux de capteurs sans fil. Typiquement, chacun de ces composants intègre une ou plusieurs unités de mesures (capteur), une unité de traitement de données, une unité de communication radio et une batterie. De ce fait, un nouveau domaine de recherche s’est créé pour étudier le déploiement de ces réseaux afin d’offrir des solutions de surveillance et de contrôle à distance, notamment dans des environnements complexes ou inaccessibles. Les domaines d’application de ces capteurs sont très variés, allant de la domotique au militaire en passant par le médical et les infrastructures civiles. Souvent, ces applications impliquent des contraintes sévères en terme d’autonomie qui idéalement devrait atteindre plusieurs dizaines d’années. Pour atteindre cet objectif, il est à la fois nécessaire de réduire la consommation énergétique du nœud capteur et de trouver d’autres solutions d’alimentation en énergie pour le nœud. Pour adresser ce deuxième point, la récupération d’énergie à partir de l’environnement (solaire, vibratoire, thermique, etc.) semble représenter une solution idéale pour alimenter un nœud capteur, bien que celui-ci doive s’adapter aux faibles quantités d’énergie récupérées par ces systèmes, ainsi qu’à leurs variations et intermittences. Ces travaux de thèse s’intéressent donc à la problématique de la simulation et de la réduction de la consommation des nœuds de capteurs sans-fil et autonomes en énergie. Dans un premier temps, nous avons développé la plateforme HarvWSNet, un environnement de co-simulation alliant le simulateur de réseaux WSNet et Matlab permettant ainsi la modélisation précise et la simulation hétérogène des protocoles de communication (typiquement à événements discrets) et des systèmes de récupération d’énergie (qui possèdent typiquement un comportement à temps continu). Nous avons démontré que cette plateforme permet de réaliser très rapidement des études de pré-prototypage de scénarios applicatifs de déploiement et ainsi réduire le temps de conception de ces nouvelles technologies. Grâce à la modélisation précise des éléments du système de récupération d’énergie (batterie, supercapacité, etc.) permise par cette plateforme, nous avons étudié et évalué la durée de vie de déploiements à large échelle de réseaux de capteurs alimentés par des systèmes de récupération d’énergie (solaire et éolien). La deuxième contribution de cette thèse concerne l’étude et l’implémentation de stratégies de reconfiguration dans l’interface de communication radio, qui est souvent la principale source de consommation d’énergie d’un capteur, afin de permettre au nœud et/ou au réseau de minimiser sa consommation lorsque le bilan de liaison RF est favorable. A cette fin, nous avons proposé une approche originale grâce au développement d’un simulateur de réseau dédié, EnvAdapt (basé sur WSNet). Dans cette nouvelle plateforme, des modèles de consommation des différents blocs du transceiver radio et des algorithmes de reconfiguration ont été implémentés afin d’étudier l’impact de la reconfiguration des performances de la radio sur la qualité de service et l’autonomie d’un réseau de capteurs.
|
|