Tri :
Date
Titre
Auteur
|
|
Traitement du signal et télécommunications
/ 19-05-2016
Commandeur Frédéric
Voir le résumé
Voir le résumé
Cette thèse s'inscrit dans le contexte de la caractérisation du cancer de la prostate à partir de données d'imagerie multimodale. L'objectif est d'identifier et de caractériser les tumeurs prostatiques à partir d'observation in-vivo, incluant imagerie par résonance magnétique multiparamétrique (IRMm), tomodensitométrie (TDM) et tomographie par émission de positons (TEP), avec une référence biologique sous forme de lames histologiques fournies par l'analyse anatomopathologique de la prostate après prostatectomie radicale. Nous proposons dans un premier temps deux méthodes de recalage afin de réaliser la mise en correspondance des données multimodales dans un référentiel spatial commun défini par l'IRM. Le premier algorithme s'attache à l'alignement des images TDM/TEP et IRM, en combinant information de contour et probabilité de présence de la prostate. Le second a pour objectif de recaler les images histologiques et IRM. En suivant le protocole de Stanford, la pièce de prostatectomie est découpée plus finement fournissant ainsi plus de lames histologiques qu'en routine clinique. Leur correspondance avec les coupes IRM est alors estimée à l'aide de l'information à priori de la découpe et de points saillants (SURF) extraits dans les deux modalités. Cette initialisation sert de base à un recalage affine puis non-rigide basé sur l'information mutuelle et des cartes de distance obtenues à partir des structures intraprostatiques. Dans un second temps, des caractéristiques structurelles (Haar, Gabor, etc) et fonctionnelles (Ktrans, Kep, SUV, TLG, etc) sont extraites en chaque voxel de la prostate à partir des images IRM et TEP. À ces vecteurs de caractéristiques sont associés les labels biologiques correspondant obtenus lors de l'analyse anatomopathologique. Parmi ces labels, nous disposons d'un score d'agressivité appelé score de Gleason et de scores immunohistochimiques quantifiant certains aspects biologiques des tissus, tels que l'hypoxie et la prolifération cellulaire. Finalement, ces couples (vecteurs de caractéristiques/informations biologiques) servent de données d'apprentissage à l’entraînement de classifieurs RF et SVM, utilisés par la suite pour caractériser les tumeurs à partir de nouvelles observations in-vivo. Dans ces travaux, nous réalisons une étude de faisabilité sur neuf patients.
|
|
Traitement du signal et télécommunications
/ 27-04-2016
Batel Lotfi
Voir le résumé
Voir le résumé
En focalisant le rayonnement dans les directions utiles, les antennes directives ouvrent de nouvelles perspectives pour les applications sans-fil en termes de sélectivité spatiale, d'impact environnemental électromagnétique et de modes d'utilisation. Cependant les techniques classiques pour augmenter la directivité aboutissent souvent à une augmentation de la taille de l'antenne rendant difficile l'intégration dans les petits objets communicants. Cette difficulté est particulièrement critique pour les gammes de fréquences inférieures au gigahertz, lorsque l'on vise une intégration dans des objets dont les dimensions sont limitées à quelques centimètres. Le contrôle du rayonnement reste un enjeu important pour les radiocommunications futures afin de réduire les pollutions électromagnétiques qui limitent l'acceptabilité des communications sans-fil et la cohabitation des systèmes. L'état de l'art récent dans le domaine des antennes miniatures a montré de nouvelles perspectives pour l'établissement de super-directivité ; c'est-à-dire pour dépasser la directivité naturelle faible des systèmes antennaires miniatures. Ces perspectives reposent sur l'utilisation de réseaux d'antennes parasites miniatures pour construire un rayonnement directif. De plus, les activités de recherche dans le domaine des antennes actives ces dernières années permettent d'envisager une approche moderne aux problématiques liées à la directivité des antennes miniatures. Ces travaux de thèse ont pour objectif d'évaluer les perspectives d'améliorations qu'apporte l'électronique active aux problématiques des antennes miniatures directives. Des circuits au comportement particulier sont notamment mis en œuvre et évalués expérimentalement pour concrétiser ces nouvelles perspectives.
|
|
Traitement du signal et télécommunications
/ 31-03-2016
Basheer Ahmed Chagun Basha
Voir le résumé
Voir le résumé
Les circuits reconfigurables (Field Programmable Gate Arrays - FPGAs) sont largement utilisés dans divers domaines d'application en raison de leur flexibilité, de leur haute densité d'intégration, de leur niveau de performance et du faible coût de développement associé. Toutefois, leur grande sensibilité aux défauts dus aux rayonnements électromagnétiques tels que les "Single Event Effets" (SEE), est un défi qui doit être abordée pendant la conception du système. Ces SEE sont une préoccupation majeure dans la sécurité et pour les systèmes critiques tels que les systèmes de l'automobile et de l'avionique. En général, la plupart des FPGA d'aujourd'hui ne sont pas conçus pour fonctionner dans ces environnements difficiles, sauf pour les circuits spécifiques qui ont été durcies par construction au niveau du processus de fabrication. Ces circuits ont un surcoût très élevé et des performances moindres, ce qui les rend moins intéressant que leur équivalent non protégé. Le projet ARDyT vise à développer une architecture FPGA fiable à faible coût avec une suite d'outils de conception, offrant un environnement complet pour la conception d'un système tolérant aux fautes. Ce travail de thèse présente l'architecture du FPGA ARDyT, qui intègre des stratégies de prises en charge des fautes adaptées aux différents éléments de l'architecture. L'un des principaux objectifs du projet ARDyT est de gérer les changements de valeurs multiples (multi bit upsets (MBUs)) dans le flux binaire de configuration du FPGA. Ces stratégies de tolérance aux fautes pour protéger les ressources logiques et le flux binaire de configuration sont discutées en détail. Une architecture spécifique du bloc logique élémentaire configurable est proposée afin de simplifier la stratégie de prise en compte des fautes dans les ressources logiques. Un nouveau système de correction d'erreur intégrée (3-Dimensional Hamming - 3DH) est proposé pour gérer les MBU dans le flux binaire de configuration. L'ensemble de la stratégie de gestion des fautes est implémenté dans l'architecture au travers d'un manager de la fiabilité centralisée nommée R3M (Run-time Reconfigurable Resource Manager), et d'une suite d'outils adaptée.
|
|
Traitement du signal et télécommunications
/ 25-03-2016
Roman Jimenez Geoffrey
Voir le résumé
Voir le résumé
Ces travaux de thèse s'inscrivent dans le contexte de la prédiction de la récidive en radiothérapie du cancer de l'utérus. L'objectif était d'analyser les images de tomographie par émission de positons (TEP) au 18F-fluorodésoxyglucose (18F-FDG) en vue d'en extraire des paramètres quantitatifs statistiquement corrélés aux événements de récidive. Six études ont été réalisées afin de répondre aux différentes problématiques soulevées par l'analyse des images 18F-FDG TEP telles que la présence d'artefact, l'isolation du métabolisme tumoral ou l'évaluation du signal en cours de traitement. Les études statistiques ont porté sur l'analyse de paramètres reflétant l'intensité, la forme et la texture du métabolisme tumoral avant, et en cours de traitement. À l'issue de ces travaux, le volume métabolique tumoral pré-thérapeutique ainsi que la glycolyse totale de la lésion per-thérapeutique apparaissent comme les paramètres les plus prometteurs pour la prédiction de récidive de cancers du col de l'utérus. De plus, il apparaît que la combinaison de ces paramètres avec d'autres caractéristiques de texture ou de forme, à l'aide de modèles statistiques d'apprentissage supervisé ou de modèles de régression plus classiques, ont permis d'augmenter la prédiction des événements de récidive.
|
|
Électronique
/ 24-03-2016
Jaeck Vincent
Voir le résumé
Voir le résumé
De nos jours, les communications sans fil sont devenues un moyen incontournable et universel d'échange d'un large éventail d'informations entre différents systèmes, certains d'entre eux étant en mouvement comme des drones parmi tant d'autres. Dans le contexte de cette thèse nous considérons une liaison entre un projectile et une station de base. La géométrie de la structure ainsi que les contraintes aérodynamiques d'un tir balistique impliquent l'utilisation d'antennes patchs dans la partie conique à l'avant du projectile. Ce type d'antenne est facile à intégrer à une plate-forme en tant que réseau conformé tout en respectant les contraintes d'encombrement. Ces communications doivent être fiables et discrètes dans un environnement perturbé ou hostile. Les diagrammes de rayonnement du réseau d'antennes doivent présenter des caractéristiques spécifiques, notamment dans le cas particulier d'objets volants et possédant une rotation en roulis (rotation autour de son axe) qui impliquent l'utilisation d'un réseau phasé et commuté par rapport à sa position. Une antenne qui présenterait un rayonnement fixe assurerait une liaison avec un interlocuteur, mais rayonnerait également dans d'autres directions sensibles ce qui pourraient interférer avec la communication principale. La solution qui consiste à activer et désactiver des sous-réseaux verticaux afin d'orienter le lobe principal dans la plan orthogonal à la pointe semble être en accord avec les contraintes de la structure tournante. Un réseau conique a été étudié puis 2 prototypes ont été fabriqués, dont un à l'ISL. Les sous-réseaux sont répartis de manière égale autour de la pointe de façon à pouvoir rayonner dans toutes les directions. De plus, chaque sous-réseau est composé de trois éléments ce qui permet d'orienter également le lobe principal dans le plan longitudinal de la pointe (le long de l'axe du projectile) grâce à un dépointage électronique. Un système électronique de formation de faisceaux a été développé dans le but de contrôler 12 éléments rayonnants. Le réseau d'antennes ainsi que le circuit de répartition ont été caractérisés dans un premier temps de manière indépendante afin d'optimiser les lois de phase nécessaires à dépointer le lobe à partir des pondérations mesurées. Au final, le réseau de 12 éléments associé à son système d'alimentation dédié a été mesuré dans les chambres anéchoïques de DGA-MI et de l'ISL et les mesures sont en accord avec les simulations.
|
|
Traitement du signal et télécommunications
/ 09-02-2016
Nguyen Viet-Hoa
Voir le résumé
Voir le résumé
Pour réduire la consommation d'énergie due aux transmissions radio dans les réseaux de capteurs sans fil, nous proposons une nouvelle approche associant les techniques de précodage MIMO et de relais, appelé précodage distribué max-dmin (DMP). Considérant une source et un relais avec une antenne chacun, et une destination disposant de deux antennes, nous déployons un système MIMO précodé virtuel 2 × 2. Dans ce contexte, nous étudions deux techniques de relais Amplify and Forward (AF) et Decode and Forward (DF). Des comparaisons en termes de taux d'erreur et d'efficacité énergétique par rapport aux systèmes plus classiques comme les codes spatio-temporels distribués ou les combinaisons à gain maximal montrent que notre système est intéressant pour des distances de transmission moyennes (à partir de 16 mètres). Toujours dans l'objectif de maximiser l'efficacité énergétique, nous proposons une allocation de puissance sur les nœuds source et relais. Pour cela, nous dérivons analytiquement les performances du système précodage distribué max-dmin selon le mode AF et DF. Enfin,pour améliorer les performances des systèmes avec décodage au relais (DF), nous proposons un nouveau récepteur (à la destination) qui tient compte des erreurs éventuelles au niveau du relais.
|
|
Traitement du signal et télécommunications
/ 18-01-2016
Bordes Philippe
Voir le résumé
Voir le résumé
Les nouvelles techniques de compression vidéo doivent intégrer un haut niveau d'adaptabilité, à la fois en terme de bande passante réseau, de scalabilité des formats (taille d'images, espace de couleur…) et de compatibilité avec l'existant. Dans ce contexte, cette thèse regroupe des études menées en lien avec le standard HEVC. Dans une première partie, plusieurs adaptations qui exploitent les propriétés du signal et qui sont mises en place lors de la création du bit-stream sont explorées. L'étude d'un nouveau partitionnement des images pour mieux s'ajuster aux frontières réelles du mouvement permet des gains significatifs. Ce principe est étendu à la modélisation long-terme du mouvement à l'aide de trajectoires. Nous montrons que l'on peut aussi exploiter la corrélation inter-composantes des images et compenser les variations de luminance inter-images pour augmenter l'efficacité de la compression. Dans une seconde partie, des adaptations réalisées sur des flux vidéo compressés existants et qui s'appuient sur des propriétés de flexibilité intrinsèque de certains bit-streams sont investiguées. En particulier, un nouveau type de codage scalable qui supporte des espaces de couleur différents est proposé. De ces travaux, nous dérivons des metadata et un modèle associé pour opérer un remapping couleur générique des images. Le stream-switching est aussi exploré comme une application particulière du codage scalable. Plusieurs de ces techniques ont été proposées à MPEG. Certaines ont été adoptées dans le standard HEVC et aussi dans la nouvelle norme UHD Blu-ray Disc. Nous avons investigué des méthodes variées pour adapter le codage de la vidéo aux différentes conditions de distribution et aux spécificités de certains contenus. Suivant les scénarios, on peut sélectionner et combiner plusieurs d'entre elles pour répondre au mieux aux besoins des applications.
|
|
Traitement du signal et télécommunications
/ 12-01-2016
Alain Martin
Voir le résumé
Voir le résumé
L'efficacité des services de compression vidéo est de nos jours un enjeu essentiel, et est appelé à le devenir d'autant plus dans le futur, comme l'indique la croissance constante du trafic vidéo et la production de nouveaux formats tels que la vidéo à haute résolution, à gamme de couleur ou dynamique étendues, ou encore à fréquence d'images augmentée. Le standard MPEG HEVC est aujourd'hui un des schémas de compression les plus efficaces, toutefois, il devient nécessaire de proposer de nouvelles méthodes originales pour faire face aux nouveaux besoins de compression. En effet, les principes de bases des codecs modernes ont été conçu il y a plus de 30 ans : la réduction des redondances spatiales et temporelles du signal en utilisant des outils de prédiction, l'utilisation d'une transformée afin de diminuer d'avantage les corrélations du signal, une quantification afin de réduire l'information non perceptible, et enfin un codage entropique pour prendre en compte les redondances statistiques du signal. Dans cette thèse, nous explorons de nouvelles méthodes ayant pour but d'exploiter d'avantage les redondances du signal vidéo, notamment à travers des techniques multi-patchs. Dans un premier temps, nous présentons des méthodes multi-patchs basées LLE pour améliorer la prédiction Inter, qui sont ensuite combinées pour la prédiction Intra et Inter. Nous montrons leur efficacité comparé à H.264. La seconde contribution de cette thèse est un schéma d'amélioration en dehors de la boucle de codage, basé sur des méthodes de débruitage avec épitome. Des épitomes de bonne qualité sont transmis au décodeur en plus de la vidéo encodée, et nous pouvons alors utiliser coté décodeur des méthodes de débruitage multi-patchs qui s'appuient sur les patchs de bonne qualité contenu dans les épitomes, afin d'améliorer la qualité de la vidéo décodée. Nous montrons que le schéma est efficace en comparaison de SHVC. Enfin, nous proposons un autre schéma d'amélioration en dehors de la boucle de codage, qui s'appuie sur un partitionnement des patchs symétrique à l'encodeur et au décodeur. Coté encodeur, on peut alors apprendre des projections linéaires pour chaque partition entre les patchs codés/décodés et les patchs sources. Les projections linéaires sont alors envoyés au décodeur et appliquées aux patchs décodés afin d'en améliorer la qualité. Le schéma proposé est efficace comparé à HEVC, et prometteur pour des schémas scalables comme SHVC.
|
|
Électronique
/ 06-01-2016
Kervran Yannick
Voir le résumé
Voir le résumé
Le diagnostic de l'occlusion dentaire reste actuellement un défi majeur pour les chirurgiens-dentistes. Des outils dédiés existent, comme le papier à articuler et le T-Scan®, mais sont limités pour diverses raisons. L'objectif de cette thèse est alors de développer un nouvel outil sous forme de matrice de capteurs de pression sur substrat flexible alliant les avantages des outils nommés précédemment, à savoir un produit électronique, informatisé et de faible épaisseur pour ne pas être intrusif. Nous avons choisi une technologie piézorésistive et l'utilisation de jauges de contrainte en silicium microcristallin. Ce matériau est déposé à basse température (< 200°C) directement sur substrat Kapton® par PECVD (Plasma Enhanced Chemical Vapor Deposition) dans une perspective de faible coût. Ces jauges ont d'abord été caractérisées mécaniquement et électriquement lors de tests de courbure. Les facteurs de jauge longitudinaux et transversaux du silicium microcristallin ont été étudiés afin de maîtriser son comportement sous déformation. Les dispositifs restent fonctionnels jusqu'à des contraintes de 0,6 %, à partir de laquelle des dégradations apparaissent. Ces valeurs de contraintes permettent d'atteindre des rayons de courbure de l'ordre du millimètre pour des substrats de 25 µm d'épaisseur. Deux types de matrices ont ensuite été développées : une première de 800 jauges pour l'étude de la surface occlusale d'une dent puis une seconde de 6400 jauges pour l'étude d'une moitié de mâchoire. Dans les deux cas, des corrélations intéressantes entre le papier à articuler et nos réponses électriques ont été observées lors de caractérisations en conditions « semi-réelles » à l'aide d'un articulateur dentaire. Ces deux prototypes ont ainsi permis une preuve de concept fonctionnelle de l'objectif visé en utilisant des jauges en silicium microcristallin.
|
|
Traitement du signal et télécommunications
/ 21-12-2015
Basset Antoine
Voir le résumé
Voir le résumé
Notre travail de thèse porte sur la détection et la modélisation de configurations dynamiques dans des séquences d'images. Nous développons des approches statistiques locales sans apprentissage supervisé. Notre application principale est la microscopie de fluorescence, un outil fondamental de la biologie cellulaire moderne. Deux cas peuvent se présenter : 1. les objets étudiés n'interagissent pas, et les dynamiques individuelles peuvent être analysées indépendamment ; 2. les objets étudiés interagissent, et la dynamique à analyser est celle du groupe entier d'objets. En ce qui concerne les dynamiques individuelles, nous nous intéressons à des séquences d’images biologiques dans lesquelles des protéines évoluent au sein de la cellule. Plus précisément, nous étudions la fusion de vésicules à la frontière de la cellule, appelée membrane plasmique. Les vésicules sont des intermédiaires de transport qui véhiculent des molécules dans la cellule. À la fin du processus d’exocytose, la fusion des vésicules avec la membrane s’accompagne d’une diffusion desdites protéines. Les images sont acquises en microscopie de fluorescence par réflexion totale interne (TIRF). Afin de repérer les évènements de fusion, nous proposons une nouvelle méthode de détection de spots. Puis, nous modélisons les dynamiques des protéines et estimons les paramètres biophysiques associés dans les séquences TIRF. La dynamique de groupe, quant à elle, est notamment rencontrée dans les mouvements de tissus cellulaires, le développement embryonnaire ou dans d’autres domaines, comme les mouvements de foules dans des vidéos. Nous proposons une nouvelle méthode d’estimation du mouvement de groupe permettant de caractériser le mouvement à la fois de façon quantitative et qualitative. Elle est utilisée pour classifier le mouvement de groupe, retrouver les chemins principaux dans la scène et détecter des anomalies locales. Dans l'un ou l'autre cas d'étude, nous abordons les problématiques selon une démarche commune, essentiellement dirigée par les données et mettant en œuvre des tests statistiques. Par ailleurs, nous avons le souci de proposer des méthodes nécessitant le réglage d'un faible nombre de paramètres qui sont, de plus, peu sensibles ou calibrés avec des règles statistiques. Enfin, nous adoptons des approches locales, qui ont l’avantage d’être rapides, flexibles et peu sensibles aux variations de contexte, qu’elles soient spatiales (arrière-plan variable) ou temporelles (changement d’illumination globale comme le photoblanchiment en microscopie de fluorescence).
|
|