|
|<
<< Page précédente
24
25
26
27
28
29
30
31
32
33
34
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Titre
Auteur
|
|
Traitement du signal et télécommunications
/ 18-06-2015
Duché Quentin
Voir le résumé
Voir le résumé
Les travaux réalisés dans cette thèse se situent à l'interface des domaines de l'acquisition en imagerie par résonance magnétique (IRM) et du traitement d'image pour l'analyse automatique des structures cérébrales. La mesure de modifications structurelles telles que l'atrophie corticale nécessite l'application d'algorithmes de traitement d'image. Ceux-ci doivent compenser les artefacts en IRM tels que l'inhomogénéité du signal ou les effets de volume partiel (VP) pour permettre la segmentation des tissus cérébraux puis l'estimation d'épaisseur corticale. Nous proposons une nouvelle modélisation de VP proche de la physique de l'acquisition baptisée modèle bi-exponentiel qui vient concurrencer le traditionnel modèle linéaire. Il nécessite l'utilisation de deux images de contrastes différents parfaitement recalées. Ce modèle a été validé sur des simulations et des fantômes physique et numérique dans un premier temps. Parallèlement, la récente séquence MP2RAGE permet d'acquérir deux images co-recalées par acquisition et leur combinaison aboutit à l'obtention d'une image insensible aux inhomogénéités du signal et d'une carte de T1 des tissus imagés. Nous avons testé notre modèle sur des données in vivo MP2RAGE et avons montré que l'application du modèle linéaire de VP conduit à une sous-estimation systématique de la substance grise à l'échelle du voxel. Ces erreurs se propagent à l'estimation d'épaisseur corticale, biomarqueur très sensible aux effets de VP. Nos résultats plaident en faveur de l'hypothèse suivante : la modélisation de VP pour les images MP2RAGE doit être différente de celle employée pour des images obtenues avec des séquences plus classiques. Le modèle bi-exponentiel est une solution adaptée à cette séquence particulière.
|
|
Electronique
/ 15-06-2015
Dakhli Saber
Voir le résumé
Voir le résumé
Le travail de cette thèse concerne la conception de nouvelles architectures d'antennes miniatures ou multifréquences en utilisant la technique inspirée des métamatériaux. Les antennes proposées sont munies de nouvelles formes d'éléments parasites qui permettent d'obtenir des structures compactes et donc facilement intégrables dans les terminaux mobiles. Par la suite, l'étude et la conception d'antennes directives et reconfigurables en diagramme de rayonnement par la technique inspirée des métamatériaux a été menée. En première partie, une étude paramétrique sur les paramètres pertinents de la structure a été effectuée afin de bien comprendre le fonctionnement de celle-ci. En deuxième partie, des antennes miniatures et directives sont proposées. Finalement, de nouvelles structures directives et reconfigurables en diagramme de rayonnement sont présentées.
|
|
Traitement du signal et télécommunications
/ 19-03-2015
Rimbault Narcisse
Voir le résumé
Voir le résumé
La technologie RFID (Radio Frequency Identification) prend une place de plus en plus importante dans la société d'aujourd'hui notamment dans des domaines aussi variés que la santé, la sécurité, la logistique... Le développement de cette technologie met en évidence de nouvelles contraintes comme la réduction des zones de lecture et la géo-localisation pour le stockage et le suivi de marchandises. Dans ce contexte, la thèse s'est focalisée sur le développement d'antennes pour lecteur RFID dans le cadre du projet SPINNAKER piloté par TAGSYS RFID et soutenu par OSEO. L'objectif de cette étude est de concevoir des antennes compactes et directives à polarisation circulaire en bande UHF et SHF. L'antenne hélice présente toutes ces caractéristiques à l'exception de la hauteur, très importante dès que l'on souhaite obtenir des performances élevées surtout en gain. Dans ce manuscrit, trois solutions sont proposées pour réduire la hauteur de l'antenne hélice tout en répondant aux cahiers des charges. La première solution consiste à utiliser un réflecteur de forme cylindrique ou conique qui permet de réduire la hauteur d'une antenne hélice classique d'un facteur quatre pour atteindre 0,9λ. La réduction de la hauteur se traduit par une augmentation de la surface autour de l'antenne avec une dimension latérale de 2,3λ. La seconde solution consiste à utiliser l'antenne hélice avec une cavité Fabry-pérot. La hauteur du système antennaire obtenue est de 0,5λ avec un diamètre de 2λ. La dernière solution développée dans la thèse introduit une surface CMA à la solution précédente qui permet de réduire la hauteur à 0,25λ. Toutes les solutions proposées ont été validées expérimentalement.
|
|
Traitement du signal et télécommunications
/ 15-01-2015
Gouta Ali
Voir le résumé
Voir le résumé
Les réseaux cellulaires ont connu une croissance phénoménale du trafic alimentée par les nouvelles technologies d'accès cellulaire. Cette croissance est en grande partie tirée par l'émergence du trafic HTTP adaptatif streaming (HAS) comme une nouvelle technologie de diffusion des contenus vidéo. Le principe du HAS est de rendre disponible plusieurs qualités de la même vidéo en ligne et que les clients choisissent la meilleure qualité qui correspond à leur bande passante. Chaque niveau d'encodage est segmenté en des chunks, qui dont la durée varie de 2 à 10 secondes. L'émergence du HAS a introduit des nouvelles contraintes sur les systèmes de livraison des contenus vidéo en particulier sur les systèmes de caches. Dans ce contexte, nous menons une analyse détaillée des données du trafic HAS collecté en France et fournie par le plus grand opérateur de téléphonie mobile du pays. Tout d'abord, nous analysons et modélisons le comportement des clients qui demandent des contenus VoD et live. Ces analyses nous ont permis d'identifier les facteurs qui impactent la performance des systèmes de cache et de proposer un nouveau algorithme de remplacement de contenus qu'on appelle WA-LRU. WA-LRU exploite la localité temporelle des chunks dans le contenu et la connaissance de la charge du trafic dans le réseau afin d'améliorer la performance du cache. Ensuite, nous analysons et modélisons la logique d'adaptation entre les qualités vidéo basés sur des observations empiriques. Nous montrons que le changement fréquent entre les encodages réduit considérablement la performance des systèmes de cache. Dans ce contexte, nous présentons CF-DASH une implémentation libre d'un player DASH qui vise à réduire les changements fréquents entre qualités, assure une bonne QoE des clients et améliore la performance des systèmes de caches. La deuxième partie de la thèse est dédié à la conception, simulation et implémentation d'une solution de préchargement des contenus vidéo sur terminaux mobiles. Nous concevons un système que nous appelons «Central Predictor System (CPsys)" qui prédit le comportement des clients mobiles et leurs consommations des vidéos. Nous évaluons CPSys avec des traces de trafic réel. Enfin, nous développons une preuve de concept de notre solution de préchargement.
|
|
Traitement du signal et télécommunications
/ 22-12-2014
Khodor Nadine
Voir le résumé
Voir le résumé
La syncope est une perte brusque de conscience. Bien qu'elle ne soit pas généralement mortelle, elle présente un impact économique sur le système de soins et sur la vie personnelle de personnes en souffrant. L'objet de la présente étude est de réduire la durée du test clinique (environ 1 heure) et d'éviter aux patients de développer une syncope en la prédisant. L'ensemble de travail s'inscrit dans une démarche de datamining associant l'extraction de paramètres, la sélection des variables et la classification. Trois approches complémentaires sont proposées, la première exploite des méthodes d'analyse non-linéaires de séries temporelles extraites de signaux acquises pendant le test, la seconde s'intéresse aux relations cardiovasculaires en proposant des indices dans le plan temps-fréquence et la troisième, plus originale, prendre en compte leurs dynamiques temporelles.
|
|
Biologie
/ 18-12-2014
Blanchard Olivier
Voir le résumé
Voir le résumé
Les composés organiques semi-volatils (COSVs) regroupent un grand nombre de composés chimiques utilisés notamment comme substances actives ou additifs dans les matériaux de construction, de décoration et dans de nombreux produits de consommation. Les COSVs sont omniprésents dans les environnements intérieurs et fréquemment détectés dans les poussières sédimentées et dans le compartiment aérien. Cette thèse a permis de documenter les concentrations de 57 composés dans 30 logements français et d'utiliser ces mesures pour tester un modèle d'équilibre visant à prédire leur répartition dans les différents compartiments de l'environnement intérieur. De ce travail, il ressort une forte ubiquité des COSVs dans les logements étudiés. Les concentrations les plus élevées ont été observées pour les phtalates et dans une moindre mesure pour le bisphénol A, les muscs synthétiques et certains pesticides et HAPs. Ces résultats confirment l'intérêt de mieux caractériser l'exposition de la population générale aux COSVs dans l'habitat français. Les travaux portant sur le modèle d'équilibre ont montré que le coefficient de partage entre l'air et l'octanol (Koa) peut être un bon prédicteur pour estimer la concentration d'un composé donné dans un ensemble de logements. Cependant, certaines limites ont été identifiées et une meilleure caractérisation des paramètres utilisés est recommandée.
|
|
Traitement du signal et télécommunications
/ 18-12-2014
Gillion Erwan
Voir le résumé
Voir le résumé
Dans le cadre de la guerre électronique en environnement marin, on cherche généralement à améliorer la furtivité d'un navire militaire afin de le rendre plus difficile à détecter et à localiser. Pour cela, il faut réduire la valeur de sa Surface Équivalente Radar (SER) afin de la rendre négligeable face aux perturbations apportées par l'environnement. La pratique a montré que la valeur de la SER mesurée est fortement influencée par l'environnement. Les estimateurs développés à ce jour offrent de bonnes performances pour déterminer la SER d'une cible navale de petite dimension mais deviennent imprécis pour un objet de grande taille placé dans un milieu inhomogène tel que l'environnement marin. Notre objectif est de proposer une nouvelle méthode de calcul de la SER qui prend en considération la nature volumique de la cible ainsi que les phénomènes de propagation intrinsèques à l'environnement marin. Une dyade de Green associée à la propagation d'une onde radioélectrique dans un conduit d'évaporation en présence d'une mer lisse et parfaitement conductrice, est alors développée et proposée pour calculer la SER de cibles navales de grandes dimensions.
|
|
Traitement du signal et télécommunications
/ 17-12-2014
Soltani Mariem
Voir le résumé
Voir le résumé
Les images hyperspectrales suscitent un intérêt croissant depuis une quinzaine d'années. Elles fournissent une information plus détaillée d'une scène et permettent une discrimination plus précise des objets que les images couleur RVB ou multi-spectrales. Bien que les potentialités de la technologie hyperspectrale apparaissent relativement grandes, l'analyse et l'exploitation de ces données restent une tâche difficile et présentent aujourd'hui un défi. Les travaux de cette thèse s'inscrivent dans le cadre de la réduction et de partitionnement des images hyperspectrales de grande dimension spatiale. L'approche proposée se compose de deux étapes : calcul d'attributs et classification des pixels. Une nouvelle approche d'extraction d'attributs à partir des matrices de tri-occurrences définies sur des voisinages cubiques est proposée en tenant compte de l'information spatiale et spectrale. Une étude comparative a été menée afin de tester le pouvoir discriminant de ces nouveaux attributs par rapport aux attributs classiques. Les attributs proposés montrent un large écart discriminant par rapport à ces derniers et par rapport aux signatures spectrales. Concernant la classification, nous nous intéressons ici au partitionnement des images par une approche de classification non supervisée et non paramétrique car elle présente plusieurs avantages: aucune connaissance a priori, partitionnement des images quel que soit le domaine applicatif, adaptabilité au contenu informationnel des images. Une étude comparative des principaux classifieurs semi-supervisés (connaissance du nombre de classes) et non supervisés (C-moyennes, FCM, ISODATA, AP) a montré la supériorité de la méthode de propagation d'affinité (AP). Mais malgré un meilleur taux de classification, cette méthode présente deux inconvénients majeurs: une surestimation du nombre de classes dans sa version non supervisée, et l'impossibilité de l'appliquer sur des images de grande taille (complexité de calcul quadratique). Nous avons proposé une approche qui apporte des solutions à ces deux problèmes. Elle consiste tout d'abord à réduire le nombre d'individus à classer avant l'application de l'AP en agrégeant les pixels à très forte similarité. Pour estimer le nombre de classes, la méthode AP utilise de manière implicite un paramètre de préférence p dont la valeur initiale correspond à la médiane des valeurs de la matrice de similarité. Cette valeur conduisant souvent à une sur-segmentation des images, nous avons introduit une étape permettant d'optimiser ce paramètre en maximisant un critère lié à la variance interclasse. L'approche proposée a été testée avec succès sur des images synthétiques, mono et multi-composantes. Elle a été également appliquée et comparée sur des images hyperspectrales de grande taille spatiale (1000 × 1000 pixels × 62 bandes) avec succès dans le cadre d'une application réelle pour la détection des plantes invasives.
|
|
Traitement du signal et télécommunications
/ 16-12-2014
Mellinger Philippe
Voir le résumé
Voir le résumé
La détermination des caractéristiques vibratoires est une étape cruciale lors du processus de certification d'une structure ou lors de l'évaluation de sa détérioration. Quelle que soit la technique utilisée, l'identification des modes d'une structure nécessite d'effectuer des essais de vibration. Durant ces essais, on effectue des mesures qui permettent d'observer la réponse du système à une excitation connue, partiellement connue ou inconnue. Les méthodes d'identification modale sont des méthodes globales. Elles permettent de déterminer les modes de la structure à partir d'un post-traitement des données mesurées. Certaines techniques d'identification modale, telles que les méthodes basées sur la minimisation d'erreur de modélisation ARX ou les méthodes sous-espaces, se sont fortement répandues dans le monde industriel ces quinze dernières années. Cependant, malgré ce succès, ces méthodes ne fourniront jamais les paramètres modaux exacts de la structure étudiée. En effet, à cause de nombreuses sources d'erreurs (e.g. bruits sur les capteurs, bruits environnementaux), l'identification modale à partir de données réelles ne peut mener qu'à des estimations des paramètres modaux. Une estimation est par définition entachée d'une erreur statistique, la variance. Le but de cette thèse est l'étude approfondie de l'estimation de cette erreur statistique. Le manuscrit est découpé en trois partie. La première concerne la description détaillée de deux familles d'identification modale (minimisation d'erreur de modélisation ARX et méthodes sous-espace). La seconde partie décrit le principe de l'estimation des incertitudes et fournit les chaînes de propagation des variances. La troisième partie présente une validation poussée de ces méthodes dans le but d'une utilisation opérationnelle.
|
|
Traitement du signal et télécommunications
/ 16-12-2014
Yang Yin
Voir le résumé
Voir le résumé
Les méthodes hybrides combinant les méthodes de 4D Variationnelle et le filtre de Kalman d'ensemble fournissent un cadre flexible. Dans ce cadre, les avantages potentiels par rapport à chaque méthode (e.g. la matrice de covariances d'erreur d'ébauche dépendant d'écoulement, la capacité d'obtenir explicitement la matrice de covariances d'erreur d'analyse, la procédure de minimisation itérative et l'assimilation simultanée de toutes les observations dans un intervalle de temps etc.) peuvent être conservés. Dans cette thèse, un système d'ensemblist-4DVar renforcé a été proposé et a été analysé en détail dans le cas du modèle de 2D shallow-water. Nous avons proposé un nouveau schéma de boucle imbriquée dans laquelle la matrice de covariances d'erreur d'ébauche est mis à jour pour chaque boucle externe. Nous avons aussi élaboré différents schémas de mise à jour ensemble avec deux stratégies de localisation et exploité les liens entre la matrice de covariances d'erreur d'analyse et la matrice hessienne de la fonction coût. Toutes ces variantes ont été testées avec les données réelles de l'image capturés par Kinect et les données d'image associés à un modèle de Surface Quasi-Géostrophique, respectivement. A la deuxième étape, un système d'estimation des paramètres à partir de notre méthode ensemblist-4DVar proposée est conçu. Cette formulation nous permet de estimer des paramètres d'une incertitude de stress tenseur. Et cette incertitude de stress tenseur est dérivé d'un point de vue de phénomène d'écoulement entraînée par un processus stochastique. Enfin, un premier effort est fait pour l'assimilation des données d'image à haute résolution avec le modèle dynamique sur une grille plus grossière.
|
|
|<
<< Page précédente
24
25
26
27
28
29
30
31
32
33
34
Page suivante >>
>|
|
documents par page
|