Tri :
Date
Titre
Auteur
|
|
Traitement du signal et télécommunications
/ 05-03-2014
Wu Ke
Voir le résumé
Voir le résumé
Les travaux de cette Thèse porte sur des éléments de guidage d'une thérapie focale du cancer de la prostate par Ultrasons Focalisés Haute Intensité (HIFU). Actuellement l'IRM est la seule technique d'imagerie qui permet de localiser la tumeur dans la prostate. Par contre, la tumeur n'est pas visible dans l'échographie qui est l'imagerie utilisée pour la planification et le guidage de la thérapie. L'objectif de la Thèse est de proposer des techniques de recalage de l'IRM T2 vers l'échographie. Deux approches ont été explorées : 1) Une approche basée région et plus particulièrement une méthode de descripteurs de la texture en échographie basée sur des moments invariants en rotation et en échelle. Ces descripteurs sont sensibles à la distribution du speckle quelle que soit son échelle ou son orientation. Certains de ces descripteurs permettent de caractériser les régions présentant une même distribution de speckle, mais nous avons également constaté que certains autres de ces descripteurs étaient sensibles aux contours de ces régions. Cette caractéristique nous semble très utile pour les méthodes de segmentation intégrant à la fois l'information de contours et l'information de régions (contours actifs, graph cut, etc.). 2) Une approche basée surface. Nous avons adapté une méthode de Définition Optimale de la Surface (OSD) à la segmentation de la prostate en IRM T2. Et plus particulièrement une segmentation concurrente de la prostate, de la vessie et du rectum par OSD multi-objets. Les surfaces de la prostate extraites du volume échographique et du volume IRM T2 nous ont permis d'envisager une première tentative de recalage surface/surface par la méthode des démons.
|
|
Informatique
/ 17-01-2014
Ziegler Stefan
Voir le résumé
Voir le résumé
Cette thèse étudie l'intégration de repères phonétiques dans la reconnaissance automatique de la parole (RAP) continue à grand vocabulaire. Les repères sont des événements à temps discret indiquant la présence d’événements phonétiques dans le signal de parole. Le but est de développer des détecteurs de repères qui sont motivés par la connaissance phonétique afin de modéliser quelques événements phonétiques plus précisément. La thèse présente deux approches de détection de repères, qui utilisent l'information extraite par segments et étudie deux méthodes différentes pour intégrer les repères dans le décodage, qui sont un élagage basé sur les repères et une approche reposant sur les combinaisons pondérées. Alors que les deux approches de détection de repères présentées améliorent les performance de reconnaissance de la parole comparées à l'approche de référence, elles ne surpassent pas les prédictions phonétiques standards par trame. Ces résultats indiquant que la RAP guidée par des repères nécessite de l'information phonétique très hétérogène pour être efficace, la thèse présente une troisième méthode d'intégration conçue pour intégrer un nombre arbitraire de flux de repères hétérogènes et asynchrones dans la RAP. Les résultats indiquent que cette méthode est en effet en mesure d'améliorer le système de référence, pourvu que les repères fournissent de l'information complémentaire aux modèles acoustiques standards.
|
|
Biologie
/ 19-03-2014
Givaudan Nicolas
Voir le résumé
Voir le résumé
Ce travail de thèse a cherché à déterminer si la contamination résiduelle à long terme des sols agricoles par les pesticides induit le développement de mécanismes d’adaptation aux pesticides chez les vers de terre. Il a aussi visé à identifier les coûts potentiels de l’adaptation de l’échelle de l’individu à celle de la population, et les conséquences pour l’écosystème sol. Une contamination résiduelle du sol par les pesticides est mesurée et comparée dans trois champs cultivés en agriculture conventionnelle (classés en fonction de l’historique cultural comme « haut », « moyen » et « bas » niveaux d’intrants), un champ cultivé en agriculture biologique et une prairie permanente biologique, tous dans ce type de management agricole depuis plus de 20 ans. En utilisant une méthode d’extraction des pesticides en milieu aqueux (représentant la fraction « biodisponible » des pesticides), 6, 8 et 4 résidus de pesticides sont détectés dans les champs à « haut », « moyen », et « bas » niveaux d’applications, respectivement, et un seul pesticide dans le sol du champ biologique (un résidu d’atrazine potentiellement vieux de plus de 20 ans). Les deux espèces endogées Allolobophora chlorotica et Aporrectodea caliginosa , communnes dans les sols des 5 champs,- mis à part A. chlorotica qui est absente du champ cultivé en agriculture biologique-, ont servi de modèles biologiques d’étude. Les stratégies d’adaptation aux pesticides sont étudiées en comparant les réponses de ces populations de vers de terre sur le terrain et après des expositions aux pesticides en laboratoire. Les réponses mesurées s’étendent de l’échelle moléculaire (enzymes de biotransformation et du stress oxidatif), biochimique (ressources énergétiques), métabolique (taux de respiration, métabolomique) à l’échelle de l’individu (biomasse, longueur) et de la population (traits de vie des cocons et des juvéniles), et aux possibles conséquences pour l’écosystème sol en termes de bioturbation (creusement et ingestion de sol) et de dissipation des pesticides comme service ecosystémique. Une capacité de détoxification augmentée et un plus grand potentiel anti-oxidant sont observés le long du gradient de contamination du sol et en laboratoire après exposition des vers de terre des champs conventionnel (population « pré-exposée ») et biologique (« naïve) à des pesticides. Des demandes énergétiques et des réarrangements métaboliques différents sont observés dans les deux populations, et sont plus prononcés chez la population pré-exposée. Une adaptation physiologique est démontrée chez les animaux pré-exposés, qui est associée à une ’augmentation de la bioturbation, et en cascade à une dissipation du pesticide dans le sol. Les conséquences au niveau de la population sont étudiées en termes de traits d’histoire de vie des deux populations pré-exposées et naïves. Le management en conventionnel incluant l’utilisation de pesticides semble diminuer le poids des adultes au champ, et implique potentiellement la réallocation des ressources énergétiques, des mécanismes reproductifs vers les processus métaboliques. Ceci aboutit à une diminution de la fécondité et du pourcentage d’éclosion et pourrait être un facteur participant à la diminution des populations de vers de terre dans les champs cultivés avec utilisation de produits phytosanitaires.
|
|
Traitement du signal et télécommunications
/ 20-06-2014
Kafentzis George
Voir le résumé
Voir le résumé
La modélisation sinusoïdale est une des méthodes les plus largement utilisés paramétriques pour la parole et le traitement des signaux audio. Inspiré par le récemment introduit Modèle aQHM et Modèle aHM, nous la vue d’ensemble de la théorie de l’ adaptation sinusoïdale modélisation et nous proposons un modèle nommé la Modèle eaQHM, qui est un non modèle paramétrique de mesure d’ajuster les amplitudes et les phases instantanées de ses fonctions de base aux caractéristiques variant dans le temps de sous-jacents du signal de parole, ainsi atténuer significativement la dite hypothèse de stationnarité locale. Le eaQHM est montré à surperformer aQHM dans l’analyse et la resynthèse de la parole voisée. Sur la base de la eaQHM , un système hybride d’analyse / synthèse de la parole est présenté (eaQHNM), et aussi d’ une version hybride de l’ aHM (aHNM). En outre, nous présentons la motivation pour une représentation pleine bande de la parole en utilisant le eaQHM, c’est, représentant toutes les parties du discours comme haute résolution des sinusoıdes AM-FM. Les expériences montrent que l’adaptation et la quasi-harmonicité est suffisante pour fournir une qualité de transparence dans la parole non voisée resynthèse. La pleine bande analyse eaQHM et système de synthèse est présenté à côté, ce qui surpasse l’état de l’art des systèmes, hybride ou pleine bande, dans la reconstruction de la parole, offrant une qualité transparente confirmé par des évaluations objectives et subjectives. En ce qui concerne les applications, le eaQHM et l’ aHM sont appliquées sur les modifications de la parole (de temps et pas mise à l’échelle). Les modifications qui en résultent sont de haute qualité, et suivent des règles très simples, par rapport à d’autres systèmes de modification état de l’art. Les résultats montrent que harmonicité est préféré au quasi- harmonicité de modifications de la parole du fait de la simplicité de la représentation intégrée. En outre, la pleine bande eaQHM est appliquée sur le problème de la modélisation des signaux audio, et en particulier d’instrument de musique retentit. Le eaQHM est évaluée et comparée à des systèmes à la pointe de la technologie, et leur est montré surpasser en termes de qualité de resynthèse, représentant avec succès l’attaque , transitoire, et une partie stationnaire d’un son d’instruments de musique. Enfin, une autre application est suggéré, à savoir l’analyse et la classification des discours émouvant. Le eaQHM est appliqué sur l’analyse des discours émouvant, offrant à ses paramètres instantanés comme des caractéristiques qui peuvent être utilisés dans la reconnaissance et la quantification vectorielle à base classification du contenu émotionnel de la parole. Bien que les modèles sinusoidaux sont pas couramment utilisés dans ces tâches, les résultats sont prometteurs.
|
|
Traitement du signal et télécommunications
/ 10-07-2014
Fortun Denis
Voir le résumé
Voir le résumé
Nous nous intéressons dans cette thèse au problème de l'estimation dense du mouvement dans des séquences d'images, également désigné sous le terme de flot optique. Les approches usuelles exploitent une paramétrisation locale ou une régularisation globale du champ de déplacement. Nous explorons plusieurs façons de combiner ces deux stratégies, pour surmonter leurs limitations respectives. Nous nous plaçons dans un premier temps dans un cadre variationnel global, et considérons un filtrage local du terme de données. Nous proposons un filtrage spatialement adaptatif, optimisé conjointement au mouvement, pour empêcher le sur-lissage induit par le filtrage spatialement constant. Dans une seconde partie, nous proposons un cadre générique d'agrégation pour l'estimation du flot optique. Sous sa forme générale, il consiste en une estimation locale de candidats de mouvements, suivie de leur combinaison à l'étape d'agrégation avec un modèle global. Ce schéma permet une estimation efficace des grands déplacements et des discontinuités de mouvement. Nous développons également une méthode générique de gestion des occultations. Notre méthode est validée par une analyse expérimentale conséquente sur des bases de données de référence en vision par ordinateur. Nous démontrons la supériorité de notre méthode par rapport à l'état de l'art sur les séquences présentant de grands déplacements. La dernière partie de la thèse est consacrée à l'adaptation des approches précédentes à des problématiques d'imagerie biologique. Les changements locaux importants d'intensité observés en imagerie de fluorescence sont estimés et compensé par une adaptation de notre schéma d'agrégation. Nous proposons également une méthode variationnelle avec filtrage local dédiée au cas de mouvements diffusifs de particules.
|
|
Informatique
/ 04-06-2014
Bevilacqua Marco
Voir le résumé
Voir le résumé
Par le terme ''super-résolution'' (SR), nous faisons référence à une classe de techniques qui améliorent la résolution spatiale d'images et de vidéos. Les algorithmes de SR peuvent être de deux types : les méthodes ''multi-frame'', où plusieurs images en basse résolution sont agrégées pour former une image unique en haute résolution, et les méthodes ''single-image'', qui visent à élargir une seule image. Cette thèse a pour sujet le développement de théories et algorithmes pour le problème single-image. En particulier, nous adoptons une approche ''basée sur exemples'', où l'image de sortie est estimée grâce à des techniques d'apprentissage automatique, en utilisant les informations contenues dans un dictionnaire d'exemples. Ces exemples consistent en des blocs d'image, soit extraits à partir d'images externes, soit dérivées de l'image d'entrée elle-même. Pour les deux types de dictionnaire, nous concevons de nouveaux algorithmes de SR présentant de nouvelles méthodes de suréchantillonnage et de construction du dictionnaire, et les comparons à l'état de l'art. Les résultats obtenus s'avèrent très compétitifs en termes de qualité visuelle des images de sortie et de complexité des calculs. Nous appliquons ensuite nos algorithmes au cas de la vidéo, où l'objectif est d'élargir la résolution d'une séquence vidéo. Les algorithmes, opportunément adaptées pour faire face à ce cas, sont également analysés dans le contexte du codage. L'analyse effectuée montre que, dans des cas spécifiques, la SR peut aussi être un outil efficace pour la compression vidéo, ouvrant ainsi de nouvelles perspectives intéressantes.
|
|
Traitement du signal et télécommunications
/ 10-12-2014
Ouedraogo Ganda Stéphane
Voir le résumé
Voir le résumé
L'internet des objets vise à connecter des milliards d'objets physiques ainsi qu'à les rendre accessibles depuis le monde numérique que représente l'internet d'aujourd'hui. Pour ce faire, l'accès à ces objets sera majoritairement réalisé sans fil et sans utiliser d'infrastructures prédéfinies ou de normes spécifiques. Une telle technologie nécessite de définir et d'implémenter des nœuds radio intelligents capables de s'adapter à différents protocoles physiques de communication. Nos travaux de recherches ont consisté à définir un flot de conception pour ces nœuds intelligents partant de leur modélisation à haut niveau jusqu'à leur implémentation sur des cibles de types FPGA. Ce flot vise à améliorer la programmabilité des formes d'ondes par l'utilisation de spécification de haut niveau exécutables et synthétisables, il repose sur la synthèse de haut niveau (HLS pour High Level Synthesis) pour le prototypage rapide des briques de base ainsi que sur le modèle de calcul de types flot de données des formes d'ondes radio. Le point d'entrée du flot consiste en un langage à usage spécifique (DSL pour Domain Specific Language) qui permet de modéliser à haut niveau une forme d'onde tout en insérant des contraintes d'implémentation pour des architectures reconfigurables telles que les FPGA. Il est associé à un compilateur qui permet de générer du code synthétisable ainsi que des scripts de synthèse. La forme d'onde finale est composée d'un chemin de données et d'une entité de contrôle implémentée sous forme d'une machine d'état hiérarchique.
|
|
Informatique
/ 17-06-2014
Oliveira Maroneze André
Voir le résumé
Voir le résumé
Les systèmes informatiques critiques - tels que les commandes de vol électroniques et le contrôle des centrales nucléaires - doivent répondre à des exigences strictes en termes de sûreté de fonctionnement. Nous nous intéressons ici à l'application de méthodes formelles - ancrées sur de solides bases mathématiques - pour la vérification du comportement des logiciels critiques. Plus particulièrement, nous spécifions formellement nos algorithmes et nous les prouvons corrects, à l'aide de l'assistant à la preuve Coq - un logiciel qui vérifie mécaniquement la correction des preuves effectuées et qui apporte un degré de confiance très élevé. Nous appliquons ici des méthodes formelles à l'estimation du Temps d'Exécution au Pire Cas (plus connu par son abréviation en anglais, WCET) de programmes C. Le WCET est une propriété importante pour la sûreté de fonctionnement des systèmes critiques, mais son estimation exige des analyses sophistiquées. Pour garantir l'absence d'erreurs lors de ces analyses, nous avons formellement vérifié une méthode d'estimation du WCET fondée sur la combinaison de deux techniques principales: une estimation de bornes de boucles et une estimation du WCET via la méthode IPET (Implicit Path Enumeration Technique). L'estimation de bornes de boucles est elle-même décomposée en trois étapes : un découpage de programmes, une analyse de valeurs opérant par interprétation abstraite, et une méthode de calcul de bornes. Chacune de ces étapes est formellement vérifiée dans un chapitre qui lui est dédiée. Le développement a été intégré au compilateur C formellement vérifié CompCert. Nous prouvons que le résultat de l'estimation est correct et nous évaluons ses performances dans des ensembles de benchmarks de référence dans le domaine. Les contributions de cette thèse incluent la formalisation des techniques utilisées pour estimer le WCET, l'outil d'estimation lui-même (obtenu à partir de la formalisation), et l'évaluation expérimentale des résultats. Nous concluons que le développement fondé sur les méthodes formelles permet d'obtenir des résultats intéressants en termes de précision, mais il exige des précautions particulières pour s'assurer que l'effort de preuve reste maîtrisable. Le développement en parallèle des spécifications et des preuves est essentiel à cette fin. Les travaux futurs incluent la formalisation de modèles de coût matériel, ainsi que le développement d'analyses plus sophistiquées pour augmenter la précision du WCET estimé.
|
|
Traitement du Signal et Télécommunications
/ 21-02-2014
Smierzchalski Maciej
Voir le résumé
Voir le résumé
Ce travail de thèse est composé de deux partie distinctes. La première partie est consacrée à l'étude et la modélisation des métamatériaux et tout particulièrement à leur caractérisation. Il s'agit donc de proposer des paramètres constitutifs équivalents (permittivité, perméabilité et couplage magnéto-électrique) qui permettent de remplacer les métamatériaux, composés à l'origine de réseaux périodiques de cellules discrètes, par des milieux homogènes et continus. Deux régimes sont considérés : sub-longueur d'onde et longueur d'onde. Dans le premier régime, les dimensions de la cellule de base, en particulier la période du réseau, sont très faibles devant la longueur d'onde. Le métamatériau est alors modélisé par un milieu bi-anisotrope continu. Pour le deuxième régime, les dimensions et la période sont comparables à la longueur d'onde. Les paramètres constitutifs sont alors définis au sens "local" qui prend en compte le caractère discret et périodique de la structure. Enfin, la caractérisation consiste à extraire les paramètres constitutifs à partir des coefficients de réflexion et de transmission d'une lame de métamatériau. Pour cela, nous appliquons la méthode d'inversion sous sa forme classique pour le régime "sub-longueur d'onde" et son extension aux structures périodiques pour le régime "longueur d'onde". L'une des contributions majeure de ce travail est l'application des incidences obliques (à l'interface air-métamatériau) pour extraire les paramètres constitutifs longitudinaux. La seconde partie de ce travail de thèse concerne le développement d'antennes directives à partir de sources rayonnantes à modes orthogonaux. Il est bien connu que la directivité est directement limitée par les dimensions de l'antenne ou par le nombre de sources dans un réseau. L'objectif est de mettre en œuvre une méthode alternative qui, tout au moins sur le plan conceptuel et théorique, ne relie pas la directivité à la taille de l'antenne. Nous utilisons donc la combinaison de modes rayonnants orthogonaux pour maximiser la directivité d'antennes tout en minimisant les dimensions du réseau et en limitant le couplage. Chaque source du réseau se doit rayonner un mode propre et unique qui, combiné avec une autre source, permet d'augmenter la directivité. Pour cette étude, le développement théorique des modes sphériques puis cylindriques est tout d'abord présenté afin de mettre en évidence le lien entre la directivité et les modes. En pratique, la mise en œuvre de modes sphériques a révélé des difficultés de conception, si bien que des solutions d'antennes basées sur l'anneau rayonnant sont proposées pour réaliser des sources à modes orthogonaux "cylindriques". Les topologies de structures rayonnantes directives proposées associant des antennes anneaux sont validées en simulation et par la conception puis la mesure de prototypes.
|
|
Traitement du signal et télécommunications
/ 13-05-2014
Bourrier Anthony
Voir le résumé
Voir le résumé
Cette thèse est motivée par la perspective de rapprochement entre traitement du signal et apprentissage statistique, et plus particulièrement par l'exploitation de techniques d'échantillonnage compressé afin de réduire le coût de tâches d'apprentissage. Après avoir rappelé les bases de l'échantillonnage compressé et mentionné quelques techniques d'analyse de données s'appuyant sur des idées similaires, nous proposons un cadre de travail pour l'estimation de paramètres de mélange de densités de probabilité dans lequel les données d'entraînement sont compressées en une représentation de taille fixe. Nous instancions ce cadre sur un modèle de mélange de Gaussiennes isotropes. Cette preuve de concept suggère l'existence de garanties théoriques de reconstruction d'un signal pour des modèles allant au-delà du modèle parcimonieux usuel de vecteurs. Nous étudions ainsi dans un second temps la généralisation de résultats de stabilité de problèmes inverses linéaires à des modèles tout à fait généraux de signaux. Nous proposons des conditions sous lesquelles des garanties de reconstruction peuvent être données dans un cadre général. Enfin, nous nous penchons sur un problème de recherche approchée de plus proche voisin avec calcul de signature des vecteurs afin de réduire la complexité. Dans le cadre où la distance d'intérêt dérive d'un noyau de Mercer, nous proposons de combiner un plongement explicite des données suivi d'un calcul de signatures, ce qui aboutit notamment à une recherche approchée plus précise.
|
|