Tri :
Date
Titre
Auteur
|
|
Ophtalmologie
/ 20-10-2016
Charpentier Pierre
Voir le résumé
Voir le résumé
Introduction : Le syndrome sec sévère, véritable problème de santé publique est parfois difficilement contrôlé par le traitement local. Les lentilles sclérales aux matériaux à haut dK ont déjà fait leurs preuves dans de nombreuses pathologies de surface oculaire en rétrospectif. Notre étude visait à évaluer de manière prospective l’impact du port journalier d’un équipement en lentilles sclérales sur la qualité de vie et la cicatrisation cornéenne des patients atteints de syndrome sec sévère. Matériels et méthodes : Essai thérapeutique prospectif mono-centrique ayant inclus de manière consécutive les patients atteint de syndrome sec sévère (défini par la conférence européenne d’ODISSEY) en échec d’un traitement local maximal ayant pu être équipé en lentilles sclérales. Les critères de jugement principaux étaient l’évolution du score d’OSDI (Ocular surface disease index) et d’Oxford cornéen à 3 et 6 mois de port. Résultats : Sur les 15 patients évalués atteints de syndrome sec sévère 12 furent inclus dans le protocole. 2 patients sortirent d’étude pour cause de non observance. Le sexe ratio était de 1/1 et 10 patients dont 15 yeux furent in fine analysés. La moitié des patients concernait des cas de GVH oculaires sévères. La moyenne du score OSDI de la population étudiée est passé de 69.2+/-16.5 à M0 à 26.2+/- 11.6 à M3 puis à 28.8+/-19.2 à M6 (p=0.002). La moyenne des scores d’Oxford des différents yeux équipés passa de 2.8+/-1.37 M0 à 1.07+/-0.7 M3 puis 0.4 +/- 0.63 M6 (p=0.0001). L’acuité visuelle en EDTRS des patients gagna 7 lettres en moyenne entre le début et la fin de l’étude. Aucune complication sévère (infectieuse hypoxique ou allergique) ne fut observée. Les patients étaient tous satisfait de leur équipement malgré des effets secondaires minimes (défaut de mouillabilité, formations de dépôts de l’interface…). Discussion : Les lentilles sclérales constituent aujourd’hui le premier dispositif médical qui permettant d’améliorer la qualité de vie des patients tout en protégeant la surface oculaire avec une bonne tolérance dans les cas de syndrome secs sévère.
|
|
Traitement du signal et télécommunications
/ 12-01-2016
Alain Martin
Voir le résumé
Voir le résumé
L'efficacité des services de compression vidéo est de nos jours un enjeu essentiel, et est appelé à le devenir d'autant plus dans le futur, comme l'indique la croissance constante du trafic vidéo et la production de nouveaux formats tels que la vidéo à haute résolution, à gamme de couleur ou dynamique étendues, ou encore à fréquence d'images augmentée. Le standard MPEG HEVC est aujourd'hui un des schémas de compression les plus efficaces, toutefois, il devient nécessaire de proposer de nouvelles méthodes originales pour faire face aux nouveaux besoins de compression. En effet, les principes de bases des codecs modernes ont été conçu il y a plus de 30 ans : la réduction des redondances spatiales et temporelles du signal en utilisant des outils de prédiction, l'utilisation d'une transformée afin de diminuer d'avantage les corrélations du signal, une quantification afin de réduire l'information non perceptible, et enfin un codage entropique pour prendre en compte les redondances statistiques du signal. Dans cette thèse, nous explorons de nouvelles méthodes ayant pour but d'exploiter d'avantage les redondances du signal vidéo, notamment à travers des techniques multi-patchs. Dans un premier temps, nous présentons des méthodes multi-patchs basées LLE pour améliorer la prédiction Inter, qui sont ensuite combinées pour la prédiction Intra et Inter. Nous montrons leur efficacité comparé à H.264. La seconde contribution de cette thèse est un schéma d'amélioration en dehors de la boucle de codage, basé sur des méthodes de débruitage avec épitome. Des épitomes de bonne qualité sont transmis au décodeur en plus de la vidéo encodée, et nous pouvons alors utiliser coté décodeur des méthodes de débruitage multi-patchs qui s'appuient sur les patchs de bonne qualité contenu dans les épitomes, afin d'améliorer la qualité de la vidéo décodée. Nous montrons que le schéma est efficace en comparaison de SHVC. Enfin, nous proposons un autre schéma d'amélioration en dehors de la boucle de codage, qui s'appuie sur un partitionnement des patchs symétrique à l'encodeur et au décodeur. Coté encodeur, on peut alors apprendre des projections linéaires pour chaque partition entre les patchs codés/décodés et les patchs sources. Les projections linéaires sont alors envoyés au décodeur et appliquées aux patchs décodés afin d'en améliorer la qualité. Le schéma proposé est efficace comparé à HEVC, et prometteur pour des schémas scalables comme SHVC.
|
|
Informatique
/ 19-07-2016
Farhat Soha
Voir le résumé
Voir le résumé
Notre travail se situe dans le contexte de partage de réseau mobile actif, ou un nombre d'opérateurs partagent leur accès radio, afin de former un système multi-technologie multi-opérateur. Le but de notre étude est de montrer les avantages de la coopération entre les opérateurs, principalement en ce qui concerne les revenus. De plus, nous cherchons des stratégies pour surpasser les conséquences négatives du partage des ressources, surtout celles touchant la performance des réseaux des opérateurs coopérants. Nous avons montré que les bénéfices de la coopération dépendent fortement du choix de partenaires, la tarification de service ( cout de transfert) entre les partenaires, et combien un opérateur partage de ses ressources. Notre travail consiste, en premier temps, à proposer un algorithme de sélection d'accès applicable dans un réseau multi-opérateurs. Cet algorithme devrait garantir la satisfaction en QoS de l'utilisateur et celle en profit de son opérateur d'accès à l'Internet. Ainsi, un algorithme adoptant une décision hybride, NP-BPA (Nearest Performance and Best Profit Algorithm), est proposé. En deuxième temps, nous étudions la tarification de service entre les opérateurs partenaires, précisément le coût de transfert d'un utilisateur. Ce dernier paye juste le prix du service que son opérateur d'accès à l'Internet détermine, il est inconscient du transfert. Les modèles de tarification proposés relient le coût de transfert d'un opérateur au prix adopté pour le service des clients. Le premier modèle, ACAG (As Client As Guest), suggère que le coût de transfert d'un opérateur soit égal à son prix de service. Le deuxième modèle, MIWC (Maximum Income When Cooperating), suggère que les coûts de transfert des opérateurs coopérants soient identiques, et égaux au prix de service le plus élevé des partenaires. Et, le troisième modèle, MCWC (Minimum Cost When Cooperating), suggère que les coûts de transfert des opérateurs coopérants soient identiques et égaux au plus petit prix de service des partenaires. La décision du meilleur modèle à adopter lors de la coopération, intervient une interaction entre les différents partenaires. Nous avons modélisé cette interaction à l'aide de la théorie de jeux. Nous avons exploité un jeu Stackelberg à deux niveaux, TPA (Transaction Pricing and Access Selection), où les opérateurs de service agissent comme Leaders et les opérateurs d'accès à l'Internet des utilisateurs à transférer agissent comme Followers. Finalement, nous avons considéré le mode d'accès hybride pour la coopération. Ce mode d'accès est proposé comme solution surtout pour les opérateurs partageant la plus grande capacité. La performance du réseau de ces opérateurs est relativement affaiblie suite à la coopération. Nous avons vérifié que le pourcentage de blocage diminue quand l'opérateur, ayant une capacité élevée, réduit le pourcentage de ressources partagées. Pour un même pourcentage de partage, le profit d'un opérateur diffère avec le modèle de tarification adopté. Ainsi, une bonne décision doit être prise, concernant le pourcentage de partage et le modèle de tarification, tout en tenant compte de l'effet de cette décision sur les autres partenaires du système. C'est pourquoi que nous avons proposé un nouvel jeu séquentiel à deux niveaux, afin de modéliser l'interaction entre les opérateurs, pour le partage de ressources et la tarification du coût de transfert.
|
|
Informatique
/ 13-10-2016
Hudon Matis
Voir le résumé
Voir le résumé
L'objectif de cette thèse est de tirer parti d'une illumination totalement ou partiellement contrôlée pour enrichir l'acquisition vidéo de contenus tel que la reconstruction de la forme et de l'apparence. Aujourd'hui de nombreux travaux ont tenté d'atteindre cet objectif. Certains utilisent une illumination contrôlée et séquentielle pour obtenir des reconstructions de haute qualité de la forme et de la réflectance. En revanche, ces méthodes requièrent des dispositifs coûteuses et/ou ne fonctionnent pas en temps réel. Dans cette thèse, nous visions un système d'acquisition à bas coût, rapide et mobile, qui se veut non-seulement le moins intrusif possible mais aussi simple d'utilisation. La première contribution présentée dans cette thèse est une application de la méthode bien connue, intitulée stéréo photométrie, à la vidéo. De plus, comme une fréquence de trame élevée est nécessaire à une telle application, nous proposons une méthode permettant l'utilisation d'une illumination séquentielle avec des caméras rapides de type "electronic rolling shutter". Malgré les résultats intéressants obtenus, la qualité des reconstructions de l'apparence et de la forme n'étaient pas à la hauteur de nos espérances. De plus, la stéréo photométrie est une méthode qui, de nature, n'est pas très adaptée aux applications visées dans cette thèse. Pour notre seconde contribution, nous proposons une méthode de reconstruction de la forme (géométrie) ainsi que de la réflectance diffuse à partir d'une image (d'une séquence) en utilisant un système de capture hybride composé d'un capteur de profondeur (Kinect), d'une caméra grand public et d'un flash. L'objectif est de montrer qu'en combinant une acquisition RGB-D (image couleur + profondeur) avec illumination séquentielle, on peut obtenir une reconstruction qualitative de la forme et de la réflectance d'une scène dans le cas où l'éclairage n'est pas connu. Un couple d'images est capturé : une image non flashée (image sous une illumination ambiante) et une image flashée. Une image dont l'illumination ne provient que du flash (image flash pure) peut être calculée en soustrayant l'image non flashée de l'image flashée. Nous proposons un nouvel algorithme temps réel, qui, basé sur un modèle local d'illumination de notre flash et de l'image flash pure, améliore l'information de forme fournie par le capteur de profondeur tout en retrouvant les informations de réflectance diffuse. Notre dernière contribution concerne la composition automatique d'éclairage. L'éclairage est un élément clé de la photographie. Les professionnels travaillent régulièrement avec des systèmes d'éclairage complexes afin de capturer directement des images esthétiques. Récemment, certains photographes ont tenté une nouvelle approche : plutôt que photographier une scène directement sous un éclairage complexe, ils capturent la scène sous plusieurs éclairages simples, permettant ainsi un post-traitement permettant combiner les différentes illuminations de la scène. Cette approche apporte une nouvelle dimensionnalité intéressante au post-traitement. Cependant la combinaison des images requiert des compétences en matière de photographie, et l'acquisition sous différentes conditions d'éclairage n'en est pas moins fastidieuse. Nous proposons une méthode totalement automatisée, qui, à partir d'un modèle 3D (forme et albedo) reconstruit à partir de capture d'une scène réelle, produit virtuellement les images correspondant aux différentes conditions d'éclairages. Ensuite, ces images sont combinées automatiquement, à l'aide d'un algorithme génétique, pour correspondre à un style d'éclairage fourni par l'utilisateur sous forme d'une image cible de son choix.
|
|
Traitement du signal et télécommunications
/ 18-01-2016
Bordes Philippe
Voir le résumé
Voir le résumé
Les nouvelles techniques de compression vidéo doivent intégrer un haut niveau d'adaptabilité, à la fois en terme de bande passante réseau, de scalabilité des formats (taille d'images, espace de couleur…) et de compatibilité avec l'existant. Dans ce contexte, cette thèse regroupe des études menées en lien avec le standard HEVC. Dans une première partie, plusieurs adaptations qui exploitent les propriétés du signal et qui sont mises en place lors de la création du bit-stream sont explorées. L'étude d'un nouveau partitionnement des images pour mieux s'ajuster aux frontières réelles du mouvement permet des gains significatifs. Ce principe est étendu à la modélisation long-terme du mouvement à l'aide de trajectoires. Nous montrons que l'on peut aussi exploiter la corrélation inter-composantes des images et compenser les variations de luminance inter-images pour augmenter l'efficacité de la compression. Dans une seconde partie, des adaptations réalisées sur des flux vidéo compressés existants et qui s'appuient sur des propriétés de flexibilité intrinsèque de certains bit-streams sont investiguées. En particulier, un nouveau type de codage scalable qui supporte des espaces de couleur différents est proposé. De ces travaux, nous dérivons des metadata et un modèle associé pour opérer un remapping couleur générique des images. Le stream-switching est aussi exploré comme une application particulière du codage scalable. Plusieurs de ces techniques ont été proposées à MPEG. Certaines ont été adoptées dans le standard HEVC et aussi dans la nouvelle norme UHD Blu-ray Disc. Nous avons investigué des méthodes variées pour adapter le codage de la vidéo aux différentes conditions de distribution et aux spécificités de certains contenus. Suivant les scénarios, on peut sélectionner et combiner plusieurs d'entre elles pour répondre au mieux aux besoins des applications.
|
|
Informatique
/ 15-12-2016
Sridharan Aswinkumar
Voir le résumé
Voir le résumé
Dans cette thèse, nous nous sommes concentrés sur l'interférence aux ressources de la hiérarchie de la mémoire partagée : cache de dernier niveau et accès à la mémoire hors-puce dans le contexte des systèmes multicœurs à grande échelle. À cette fin, le premier travail a porté sur les caches de dernier niveau partagées, où le nombre d'applications partageant le cache pourrait dépasser l'associativité du cache. Pour gérer les caches dans de telles situations, notre solution évalue l'empreinte du cache des applications pour déterminer approximativement à quel point elles pourraient utiliser le cache. L'estimation quantitative de l'utilitaire de cache permet explicitement de faire respecter différentes priorités entre les applications. La seconde partie apporte une prédétection dans la gestion de la mémoire cache. En particulier, nous observons les blocs cache pré-sélectionnés pour présenter un bon comportement de réutilisation dans le contexte de caches plus grands. Notre troisième travail est axé sur l'interférence entre les demandes à la demande et les demandes de prélecture à l'accès partagé à la mémoire morte. Ce travail est basé sur deux observations fondamentales de la fraction des requêtes de prélecture générées et de sa corrélation avec l'utilité de prélecture et l'interférence causée par le prélecteur. Au total, deux observations conduisent à contrôler le flux de requêtes de prélecture entre les mémoires LLC et off-chip.
|
|
Physique
/ 02-12-2016
Dutta Sujeet
Voir le résumé
Voir le résumé
Les mélanges de toluène et de tert-butanol sont complètement miscibles dans toutes les compositions à l'échelle macroscopique. Toutefois tert-butanol forme un réseau de liaisons hydrogène à l'échelle nanométrique qui persistent même dans les mélanges liquides binaires tert-butanol/toluène. Des expériences de diffusion de neutrons ont révélé la séparation des phases du mélange dans une structure cœur-gaine sous confinement dans des solides nanoporeux hydrophiles. Le travail effectué dans cette thèse vise à comprendre le rôle joué par la concurrence des interactions intermoléculaires (liaisons hydrogène, Van der Waals) lors de la séparation de phase sous nanoconfinement. Des expériences de RMN révèlent la persistance d'un réseau de liaisons hydrogène dans ces liquides binaires confinés dans des nanopores de silice à des concentrations faibles de tert -butanol, fournissant la preuves d'un autre type de réseau de liaisons hydrogène sous confinement. Des expériences d'adsorption du mélange gazeux dans des nanopores de silice ont aidé à expliquer l'affinité plus élevée des parois de silice polaires pour tert-butanol par une modèle thermodynamique. Le remplacement de la matrice hôte par un analogue hydrophobe est associé à une inversion de la sélectivité, montrant cette fois une plus grande affinité du toluène pour la surface des pores. L'effet des interactions spécifiques avec la surface sur la dynamique d'imbibition spontanée de ces liquides binaires à travers le réseau de silice nanoporeux a également été étudié. Des expériences de radiographie de neutrons ont révélé la séparation des flux à deux composants, au sein d'une dynamique toujours gouvernée par une loi de Lucas-Washburn.
|
|
Traitement du signal et télécommunications
/ 06-07-2016
Ferreira Julio Cesar
Voir le résumé
Voir le résumé
La ''super-résolution'' est définie comme une classe de techniques qui améliorent la résolution spatiale d’images. Les méthodes de super-résolution peuvent être subdivisés en méthodes à partir d’une seule image et à partir de multiple images. Cette thèse porte sur le développement d’algorithmes basés sur des théories mathématiques pour résoudre des problèmes de super-résolution à partir d’une seule image. En effet, pour estimer un’image de sortie, nous adoptons une approche mixte : nous utilisons soit un dictionnaire de « patches » avec des contraintes de parcimonie (typique des méthodes basées sur l’apprentissage) soit des termes régularisation (typiques des méthodes par reconstruction). Bien que les méthodes existantes donnent déjà de bons résultats, ils ne prennent pas en compte la géométrie des données dans les différentes tâches. Par exemple, pour régulariser la solution, pour partitionner les données (les données sont souvent partitionnées avec des algorithmes qui utilisent la distance euclidienne comme mesure de dissimilitude), ou pour apprendre des dictionnaires (ils sont souvent appris en utilisant PCA ou K-SVD). Ainsi, les méthodes de l’état de l’art présentent encore certaines limites. Dans ce travail, nous avons proposé trois nouvelles méthodes pour dépasser ces limites. Tout d’abord, nous avons développé SE-ASDS (un terme de régularisation basé sur le tenseur de structure) afin d’améliorer la netteté des bords. SE-ASDS obtient des résultats bien meilleurs que ceux de nombreux algorithmes de l’état de l’art. Ensuite, nous avons proposé les algorithmes AGNN et GOC pour déterminer un sous-ensemble local de données d’apprentissage pour la reconstruction d’un certain échantillon d’entrée, où l’on prend en compte la géométrie sous-jacente des données. Les méthodes AGNN et GOC surclassent dans la majorité des cas la classification spectrale, le partitionnement de données de type « soft », et la sélection de sous-ensembles basée sur la distance géodésique. Ensuite, nous avons proposé aSOB, une stratégie qui prend en compte la géométrie des données et la taille du dictionnaire. La stratégie aSOB surpasse les méthodes PCA et PGA. Enfin, nous avons combiné tous nos méthodes dans un algorithme unique, appelé G2SR. Notre algorithme montre de meilleurs résultats visuels et quantitatifs par rapport aux autres méthodes de l’état de l’art.
|
|
Traitement du signal et télécommunications
/ 05-12-2016
Magassouba Aly
Voir le résumé
Voir le résumé
Cette thèse s'intéresse au développement de lois de commande basées sur la perception auditive. Dans le domaine de l'audition robotique, le contrôle du robot à partir d'informations auditives est généralement basé sur des approches de localisation de source sonore. Cependant, la localisation de source en conditions réelles est un tâche complexe à résoudre. En environnement intérieur, les perturbations causées par le bruit, la réverbération ou même la structure du robot peuvent altérer le processus de localisation. Cette tâche de localisation devient encore plus complexe si la source et/ou le robot sont en mouvement. Aujourd'hui, en se restreignant aux systèmes binauraux, la localisation sonore en environnement réel n'est pas encore réalisable de manière robuste. A l'opposé, nous développons dans cette thèse une commande référencée capteurs, l'asservissement sonore, qui ne nécessite pas de localiser la source. Le mouvement du robot est directement reliée à la perception auditive: une tâche de positionnement est réalisée par une boucle de commande, où le mouvement du robot est régi par la dynamique d'indices sonores de bas niveau. Les résultats expérimentaux dans différentes conditions acoustiques et sur différentes plates-formes robotiques confirment la pertinence de cette approche en condition réelle.
|
|
Informatique
/ 17-03-2016
Le Pendu Mikaël
Voir le résumé
Voir le résumé
Les technologies d'écran ont connu récemment une évolution rapide. De la télévision 3D à l'Ultra Haute Définition, la tendance est maintenant aux écrans HDR (pour ''High Dynamic Range'') permettant de reproduire une gamme de luminance bien plus élevée que les écrans classiques. L'émergence de cette technologie implique de nouveaux travaux de standardisation dans le domaine de la compression vidéo. Une question essentielle pour la distribution à grande échelle de contenu HDR est celle de la rétro-compatibilité. Tandis que la future génération d'écrans de télévision sera adaptée à ce nouveau format, il est nécessaire de permettre aux équipements plus anciens de décoder et afficher une version du même contenu dont la dynamique a été préalablement réduite par un procédé appelé ''tone mapping''. Cette thèse vise à explorer les schémas de compression HDR rétro-compatibles. Dans une première approche, un algorithme de tone mapping spécifié par l'encodeur est appliqué à l'image HDR. L'image générée, alors appelée LDR (pour ''Low Dynamic Range''), peut être encodée et décodée dans un format classique. L'encodeur transmet par ailleurs une quantité réduite d'information permettant à un décodeur HDR d'inverser l'opération de tone mapping et de reconstruire une version HDR. L'étude de ces schémas est axée sur la définition de méthodes de tone mapping optimisées pour les performances de compression. La suite de la thèse se concentre sur l'approche scalable dans laquelle les deux versions sont fournies à l'encodeur sans connaissance à priori sur l'opérateur de tone mapping utilisé. Le producteur garde donc le contrôle sur la création du contenu LDR. Cette version LDR est d'abord compressée comme une première couche. L'image reconstruite est utilisée par le codeur scalable pour compresser plus efficacement la couche HDR grâce à un mécanisme de prédiction inter-couches. Notre approche locale et non linéaire nous permet d'améliorer les performances de codage par rapport aux méthodes scalables existantes, en particulier dans le cas où un tone mapping complexe est utilisé pour générer la version LDR.
|
|