Tri :
Date
Titre
Auteur
|
|
Informatique
/ 27-01-2017
Pham Tran Anh Quang
Voir le résumé
Voir le résumé
Les WMNs comportent des nœuds qui sont capables de recevoir et de transmettre des données vers de multiples destinations dans le réseau. De ce fait, les WMNs sont capables de s'auto-organiser et auto-configurer dynamiquement [5]. Chaque nœud crée et maintient la connectivité avec ses voisins. La disponibilité du mode ad-hoc basée sur la norme IEEE 802.11 permet une mise en œuvre de WMNs à faible coût. Les WMNs présentent cependant deux inconvénients majeurs liés aux interférences d'une part et à la scalabilité d'autre part [6]. (D1) Le problème des interférences (D2) Le problème de scalabilité. Les solutions existantes au niveau de la couche PHY ou de la couche MAC peuvent apporter des solutions au problème des interférences mentionné ci-dessus (cf. D1) . D'un autre côté, le problème de scalabilité dans les WMNs peut être résolu par les solutions de routage efficaces [11]. En effet, les algorithmes de routage dans les WMNs sont chargés de calculer des routes pour transporter des données de multiples sauts jusqu' à atteindre les destinations. Comme illustré dans [11], les routes les plus courtes, qui sont les solutions par défaut des algorithmes de routage classiques, ont généralement plus d'interférences. En conséquences, il faut trouver des routes qui ont moins d'interférences. Pour un objectif de routage donné et des paramètres donnés, ces routes peuvent être optimales ou sub-optimales. Les objectifs de routage peuvent être par exemple de maximiser la bande passante entre utilisateurs, ou de minimiser les pertes de paquets, etc. Les paramètres dans les problèmes de routage comprennent des métriques orientées réseau et des métriques orientées utilisateur. Les métriques orientées réseau, également appelées les métriques de la qualité de service (QoS), sont dérivées à partir des paramètres réseau comme la bande passante, le délai, la gigue, etc. En revanche, les métriques orientées vers l'utilisateur, également appelées les métriques de qualité d'expérience (QoE), sont basées sur l'expérience de l'utilisateur, tels que les notes MOS (Mean Opinion Score) qui indiquent le niveau de satisfaction de l'utilisateur. La perception de l'utilisateur est un objectif majeur des services de streaming vidéo. La plupart des algorithmes de routage existants prennent des décisions de routage en fonction d'une seule ou d'une combinaison des métriques orientées réseau. Ainsi, les algorithmes de routage dans [12, 13, 14] déterminent les routes basées sur la bande passante et la charge du réseau. Cependant, les métriques orientées réseau ne sont pas nécessairement corrélée à l'expérience de l'utilisateur [15, 16, 17, 18]. En d'autres termes, les utilisateurs peuvent ne pas être satisfaits même avec les routes optimales qui sont basées sur les métriques orientés réseau. En conséquences, il est nécessaire de développer les algorithmes de routage qui tiennent compte de métriques orientées utilisateur. Cette thèse traite d'algorithmes de routage dans les WMNs avec comme objectif d'améliorer la qualité pour les applications de streaming vidéo. Les algorithmes de routage proposés prendront des décisions de routage basées sur la perception de l'utilisateur. Dans ce contexte, toutes les solutions doivent faire face aux deux challenges suivants : (M1) l'estimation en temps réel de la perception utilisateur et (M2) découverte des routes optimales ou sous-optimales.
|
|
Electronique
/ 23-01-2017
Kuai Wenlin
Voir le résumé
Voir le résumé
Le travail entre dans le cadre de la nouvelle tendance à la recherche d’une électronique mécaniquement flexible basée sur des transistors en couche mince constitués uniquement de matériaux organiques (OTFT). OTFT de type n et de type p ont été fabriqués par la technique de dépôt par impression (inkjet) et étudiés. Les paramètres d’impression (jetabilité, mouillabilité, imprimabilité et possibilité d’obtention de différentes formes), de chaque encre permettant le dépôt de couches conductrices, isolantes et semiconductrices, ont été systématiquement étudiés. Les OTFT de type n basés sur du C60 se sont montrés non fiables, principalement du fait de la faible solubilité du C60 dans les solvants organiques. Les OTFT de type basés sur du Tips-pentacene ont montré par contre une grande fiabilité. Le travail global constitue une large revue des problèmes et difficultés rencontrés dans la fabrication de transistors fabriqués entièrement par impression jet d’encre. Des solutions ont été trouvées et de nouvelles idées sont proposées.
|
|
Électronique
/ 27-12-2016
Liu Xiang
Voir le résumé
Voir le résumé
Le phototransistor est un nouveau type de photo-détecteur avec une structure MOSFET spéciale qui peut non seulement convertir la lumière absorbée en variation de courant, mais également auto-amplifier ce photo-courant. En particulier, avec des progrès continus dans la synthèse des points Quantum Dots (QDs), les caractères optiques et électriques uniques renforcent le coefficient d'absorption et la génération des trous d'électrons par des processus intégrés faciles. Dans cette thèse, on a synthétisé les PdS infrarouges PbS avec une large absorption infrarouge (IR) (600-1400 nm) et un rendement élevé pour être mélangés avec l'isolateur de porte SU8 des TFT à faible température de poly-silicium (LTPS). Grâce à l'utilisation de cet isolateur de porte photo-sensoriel hybride, ces LTPS TFT peuvent encore obtenir d'excellentes performances électriques telles qu'une mobilité suffisante (3.1 cm2 / Vs), des caractères TFT stables, un rapport marche / arrêt raisonnable (104 ~ 105) et une tension sous-seuil /Déc). De plus, en cas d'exposition à la lumière infrarouge incidente, la sensibilité élevée (1800 A/W) et la sensibilité non négligeable (13 A/W) se trouvent respectivement à 760 nm et 1300 nm. De plus, la photosensibilité atteint également jusqu'à 80 et le temps de réponse est d'environ 30 ms pendant un balayage du signal IR pulsé. Elle prend des mesures concrètes pour l'application générale du phototransistor IR.
|
|
Traitement du signal et télécommunications
/ 20-12-2016
Bista Suman Raj
Voir le résumé
Voir le résumé
Cette thèse présente une méthode de navigation par asservissement visuel à l'aide d'une mémoire d'images. Le processus de navigation est issu d'informations d'images 2D sans utiliser aucune connaissance 3D. L'environnement est représenté par un ensemble d'images de référence avec chevauchements, qui sont automatiquement sélectionnés au cours d'une phase d'apprentissage préalable. Ces images de référence définissent le chemin à suivre au cours de la navigation. La commutation des images de référence au cours de la navigation est faite en comparant l'image acquise avec les images de référence à proximité. Basé sur les images actuelles et deux images de référence suivantes, la vitesse de rotation d'un robot mobile est calculée en vertu d'une loi du commandé par asservissement visuel basé image. Tout d'abord, nous avons utilisé l'image entière comme caractéristique, où l'information mutuelle entre les images de référence et la vue actuelle est exploitée. Ensuite, nous avons utilisé des segments de droite pour la navigation en intérieur, où nous avons montré que ces segments sont de meilleurs caractéristiques en environnement intérieur structuré. Enfin, nous avons combiné les segments de droite avec des points pour augmenter l'application de la méthode à une large gamme de scénarios d'intérieur pour des mouvements sans heurt. La navigation en temps réel avec un robot mobile équipé d'une caméra perspective embarquée a été réalisée. Les résultats obtenus confirment la viabilité de notre approche et vérifient qu'une cartographie et une localisation précise ne sont pas nécessaire pour une navigation intérieure utile.
|
|
Traitement du signal et télécommunications
/ 19-12-2016
Diallo Cheikh-Dieylar
Voir le résumé
Voir le résumé
Les antennes multifaisceaux (AMFs) sont cruciales pour les applications de télécommunications par satellite modernes et futures, civiles et militaires. La partie basse du spectre électromagnétique est saturée alors que de larges bandes de fréquences sont disponibles dans la bande Ka, dans laquelle des missions à très-haut débit ont émergées au cours de la dernière décennie. La tendance consiste à réduire la taille des spots pour les couvertures multi-spots afin de diminuer le prix des satellites. Ainsi des antennes d’ouverture de plus en plus grande électriquement sont requises, induisant des ruptures technologiques majeures. Les lentilles de Luneburg insérées dans un guide d’ondes à plans parallèles (GOPP) deux plaques métalliques parallèles (PMPs) sont des solutions attractives pour illuminer les AMFs, puisqu’elles peuvent aboutir à des formateurs de faisceaux de bande et champ de visée larges, pertes et coûts faibles, et simples à concevoir, réaliser et intégrer. Les travaux de cette thèse portent sur le développement de nouvelles méthodes d’implémentation et sur la conception de AMFs à base de lentille de Luneburg. La réalisation de la lentille de Luneburg est connue pour être un défi technologique majeur. Un état de l’art des méthodes de réalisation est fourni. Ensuite, deux nouvelles méthodes sont proposées, ainsi qu’une méthode et des outils de conception. La première méthode de réalisation consiste en une matrice périodique et régulière de plots métalliques de taille inférieure à la longueur d’onde, et où la séparation du GOPP varie. La hauteur des plots et la séparation du GOPP contrôlent la valeur de l’indice de réfraction équivalente. L’antenne à 9 faisceaux tout métal conçue, fabriquée et mesurée, comporte 8314 plots et présente d’excellentes performances, notamment meilleures que sa version à séparation de plaques constante. La seconde méthode de réalisation consiste en une matrice périodique et régulière de trous circulaires de taille inférieure à la longueur d’onde réalisés sur un des deux revêtements cuivrés d’un substrat diélectrique plus une plaque métallique supérieure séparée du plan des trous par une couche d’air d’épaisseur fixe. L’antenne à 5 faisceaux conçue comporte 2696 trous et présente de très bonnes performances comparés à ces semblables dans la littérature.
|
|
Traitement du signal et télécommunications
/ 16-12-2016
Mheich Ahmad
Voir le résumé
Voir le résumé
Le cerveau humain est un réseau «large-échelle» formé de régions corticales distribuées et fonctionnellement interconnectées. Le traitement de l'information par le cerveau est un processus dynamique mettant en jeu une réorganisation rapide des réseaux cérébraux fonctionnels, sur une échelle de temps très courte (inférieure à la seconde). Dans le champ des neurosciences cognitives, deux grandes questions restent ouvertes concernant ces réseaux. D'une part, est-il possible de suivre leur dynamique spatio-temporelle avec une résolution temporelle nettement supérieure à celle de l'IRM fonctionnelle? D'autre part, est-il possible de mettre en évidence des différences significatives dans ces réseaux lorsque le cerveau traite des stimuli (visuels, par exemple) ayant des caractéristiques différentes. Ces deux questions ont guidé les développements méthodologiques élaborés dans cette thèse. En effet, de nouvelles méthodes basées sur l'électroencéphalographie sont proposées. Ces méthodes permettent, d'une part de suivre la reconfiguration dynamique des réseaux cérébraux fonctionnels à une échelle de temps inférieure à la seconde. Elles permettent, d'autre part, de comparer deux réseaux cérébraux activés dans des conditions spécifiques. Nous proposons donc un nouvel algorithme bénéficiant de l'excellente résolution temporelle de l'EEG afin de suivre la reconfiguration rapide des réseaux fonctionnels cérébraux à l'échelle de la milliseconde. L'objectif principal de cet algorithme est de segmenter les réseaux cérébraux en un ensemble d' «états de connectivité fonctionnelle» à l'aide d'une approche de type « clustering ». L'algorithme est basé sur celui des K-means et a été appliqué sur les graphes de connectivité obtenus à partir de l'estimation des valeurs de connectivité fonctionnelle entre les régions d'intérêt considérées. La seconde question abordée dans ce travail relève de la mesure de similarité entre graphes. Ainsi, afin de comparer des réseaux de connectivité fonctionnelle, nous avons développé un algorithme (SimNet) capable de quantifier la similarité entre deux réseaux dont les nœuds sont définis spatialement. Cet algorithme met en correspondance les deux graphes en « déformant » le premier pour le rendre identique au second sur une contrainte de coût minimal associée à la déformation (insertion, suppression, substitution de nœuds et d’arêtes). Il procède selon deux étapes, la première consistant à calculer une distance sur les nœuds et la seconde une distance sur les arrêtes. Cet algorithme fournit un indice de similarité normalisé: 0 pour aucune similarité et 1 pour deux réseaux identiques. Il a été évalué sur des graphes simulés puis comparé à des algorithmes existants. Il montre de meilleures performances pour détecter la variation spatiale entre les graphes. Il a également été appliqué sur des données réelles afin de comparer différents réseaux cérébraux. Les résultats ont montré des performances élevées pour comparer deux réseaux cérébraux réels obtenus à partir l'EEG à haute résolution spatiale, au cours d'une tâche cognitive consistant à nommer des éléments de deux catégories différentes (objets vs animaux).
|
|
Traitement du signal et télécommunications
/ 15-12-2016
Jedidi Safa
Voir le résumé
Voir le résumé
Avec la complexité croissante des systèmes dynamiques qui apparaissent dans l'ingénierie et d'autres domaines de la science, l'étude des systèmes de grande taille composés d'un ensemble de sous-systèmes interconnectés est devenue un important sujet d'attention dans différents domaines, tels que la robotique, les réseaux de transports, les grandes structures spatiales (panneaux solaires, antennes, télescopes,...), les bâtiments,… et a conduit à des problèmes intéressants d'analyse d'identification paramétrique, de contrôle distribué et d'optimisation. L'absence d'une définition universelle et reconnue des systèmes qu'on appelle "grands systèmes", "systèmes complexes", "systèmes interconnectés",..., témoigne de la confusion entre ces différents concepts et la difficulté de définir des limites précises pour tels systèmes. L'analyse de l'identifiabilité et de l'identification de ces systèmes nécessite le traitement de modèles numériques de grande taille, la gestion de dynamiques diverses au sein du même système et la prise en compte de contraintes structurelles (des interconnections,...). Ceci est très compliqué et très délicat à manipuler. Ainsi, ces analyses sont rarement prises en considération globalement. La simplification du problème par décomposition du grand système en sous-problèmes de complexité réduite est souvent la seule solution possible, conduisant l'automaticien à exploiter clairement la structure du système.
Cette thèse présente ainsi, une approche décentralisée d'identification des systèmes de grande taille "large scale systems" composés d'un ensemble de sous-systèmes interconnectés. Cette approche est basée sur les propriétés structurelles (commandabilité, observabilité et identifiabilité) du grand système. Cette approche à caractère méthodologique est mise en œuvre sur des applications thermiques des bâtiments. L'intérêt de cette approche est montré à travers des comparaisons avec une approche globale.
|
|
Traitement du signal et télécommunications
/ 12-12-2016
Chatelain Pierre
Voir le résumé
Voir le résumé
La manipulation robotique d'une sonde échographique a été un important sujet de recherche depuis plusieurs années. Plus particulièrement, des méthodes d'asservissement visuel guidé par échographie ont été développées pour accomplir différentes tâches, telles que la compensation de mouvement, le maintien de la visibilité d'une structure pendant la téléopération, ou le suivi d'un instrument chirurgical. Cependant, en raison de la nature des images échographiques, garantir une bonne qualité d'image durant l'acquisition est un problème difficile, qui a jusqu'ici été très peu abordé. Cette thèse traite du contrôle de la qualité des images échographiques acquises par une sonde robotisée. La qualité du signal acoustique au sein de l'image est représentée par une carte de confiance, qui est ensuite utilisée comme signal d'entrée d'une loi de commande permettant d'optimiser le positionnement de la sonde échographique. Une commande hybride est également proposée pour optimiser la fenêtre acoustique pour une cible anatomique qui est détectée dans l'image. L'approche proposée est illustrée dans le cas d'un scénario de télé-échographie, où le contrôle de la sonde est partagé entre la machine et le téléopérateur.
|
|
Traitement du signal et télécommunications
/ 12-12-2016
Jalloul Nahed
Voir le résumé
Voir le résumé
Le travail présenté dans ce mémoire porte sur le développement d'un système de surveillance ambulatoire pour la détection de la dyskinésie induite par la Levodopa (LID) chez les patients de la maladie de Parkinson (PD). Le système est composé d’unités de mesure inertielle (IMUs) qui recueillent des signaux de mouvement chez des sujets sains et des patients parkinsoniens. Des méthodes différentes sont évaluées pour la détection de LID avec et sans classification des activités. Les données recueillies auprès des sujets sains sont utilisées pour concevoir un classificateur d'activité fiable. Par la suite, un algorithme qui effectue la classification des activités et la détection de la dyskinésie sur les données recueillies auprès de des patients parkinsoniens est proposé. Une nouvelle approche basée sur l'analyse de réseau complexe est également explorée et présente des résultats intéressants. Les méthodes de traitement développées ont été intégrées dans une plateforme complète d’analyse nommée PARADYSE.
|
|
Traitement du signal et télécommunications
/ 08-12-2016
Berthier Florent
Voir le résumé
Voir le résumé
Les travaux de cette thèse se concentrent sur la réduction de l'énergie consommée et l'amélioration des temps de réveil du microcontrôleur par des innovations au niveau de l'architecture, du circuit et de la gestion de l'énergie. Ces travaux proposent une architecture de microcontrôleur partitionnée entre un processeur de réveil programmable, appelé Wake Up Controller, s'occupant des tâches courantes du nœud de capteurs et un processeur principal gérant les tâches irrégulières. Le Wake Up Controller proposé dans ces travaux de thèse est un processeur RISC 16-bit dont le jeu d'instructions a été adapté pour gérer les tâches régulières du nœud, et n'exécute que du code sur interruptions. Il est implémenté en logique mixte asynchrone/synchrone. Un circuit a été fabriqué en technologie UTBB FDSOI 28nm intégrant le Wake-Up Controller. Le cœur atteint une performance de 11,9 MIPS pour 125μW de consommation moyenne en phase active et un réveil depuis le mode de veille en 55ns pour huit sources de réveil possibles. La consommation statique est d'environ 4μW pour le cœur logique asynchrone à 0,6V sans utilisation de gestion d'alimentation (power gating) et d'environ 500nW avec.
|
|