|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Titre
Auteur
|
|
Traitement du signal et télécommunications
/ 08-11-2013
Pratomo Istas
Voir le résumé
Voir le résumé
Les systèmes embarqués sur puce modernes intègrent des milliards de transistors et des composants intégrés hétérogènes pour fournir toutes les fonctionnalités requises par les applications courantes. La solution support de la communication dans ce cadre s'appuie sur la notion de réseau sur puce (NoC pour network on chip). Les principaux objectifs de la conception d'un NoC sont d'obtenir des performances élevées, pour un coût d'implémentation (notamment en surface et en consommation électrique) le plus faible possible. Ainsi, le concepteur de NoC doit tenir compte de l'impact des paramètres du NoC sur le compromis entre les performances du réseau et la taille de silicium requis pour son implémentation. L'utilisation de la technologie submicronique profonde amène des phénomènes de variabilité et de vieillissement qui causes des événements singuliers uniques (SEU pour Single Event Upset). Un SEU provoque le changement d'état d'un bit qui provoque l'échec de la transmission d'une donnée dans un NoC. La mise en œuvre de routage supportant la tolérance aux fautes est donc nécessaire. Dans cette thèse, nous proposons dans un premier temps, une évaluation de l'impact des paramètres de conception des NoC sur ses performances. Le résultat permet de guider le concepteur dans ses choix et le réglage des paramètres du réseau permettant d'éviter la dégradation de ses performances. Deuxièmement, nous avons proposé de nouveaux algorithmes de routage adaptatifs tolérants aux pannes pour un réseaux maillé 2D appelé Gradient et pour un réseaux maillé 3D appelé Diagonal. Ces algorithmes s'adaptent et proposent des séquences de chemins alternatifs pour les paquets lorsque le chemin principal est fautif. Nous avons ainsi évalué le coût d'implémentation de Gradient sur un FPGA actuel. Tous ces travaux ont été validés et caractérisée par simulation et mis en œuvre en FPGA. Les résultats fournissent la comparaison des performances de nos algorithmes avec les algorithmes de l'état de l'art.
|
|
Traitement du signal et télécommunications
/ 22-10-2013
Navarro Xavier
Voir le résumé
Voir le résumé
Ce mémoire de thèse porte sur le traitement et l'analyse des signaux issus des unités de soins intensifs néonatales (USIN) pour l'étude de la maturité, de l'infection généralisée et de l'influence de l'immunisation chez le nouveau-né prématuré. Une attention particulière est portée sur l'électroencéphalographie et le signal de respiration. Pour le premier, ce signal est souvent bruité en USIN et des méthodes de décomposition du signal et d'annulation optimale du bruit, adaptées aux particularités des EEG immatures, ont été proposées et évaluées objectivement sur signaux réels et simulés. L'analyse de l'EEG et des bouffées delta, repérées automatiquement par un classificateur proposé, ont permis d'étudier la maturation et les effets de la vaccination. Pour la seconde modalité, la respiration, des méthodes non-linéaires et fractales sont retenues et adaptées pour évaluer la maturité et l'infection généralisée. Une étude de robustesse des méthodes d'estimation est menée et on montre que l'exposant de Hurst, estimé sur des signaux de variabilité respiratoire, est un bon détecteur de l'infection.
|
|
Informatique
/ 18-06-2013
Chabrier Thomas
Voir le résumé
Voir le résumé
Cette thèse porte sur l'étude, la conception matérielle, la validation théorique et pratique, et enfin la comparaison de différents opérateurs arithmétiques pour des cryptosystèmes basés sur les courbes elliptiques (ECC). Les solutions proposées doivent être robustes contre certaines attaques par canaux cachés tout en étant performantes en matériel, tant au niveau de la vitesse d'exécution que de la surface utilisée. Dans ECC, nous cherchons à protéger la clé secrète, un grand entier, utilisé lors de la multiplication scalaire. Pour nous protéger contre des attaques par observation, nous avons utilisé certaines représentations des nombres et des algorithmes de calcul pour rendre difficiles certaines attaques ; comme par exemple rendre aléatoires certaines représentations des nombres manipulés, en recodant certaines valeurs internes, tout en garantissant que les valeurs calculées soient correctes. Ainsi, l'utilisation de la représentation en chiffres signés, du système de base double (DBNS) et multiple (MBNS) ont été étudiés. Toutes les techniques de recodage ont été validées théoriquement, simulées intensivement en logiciel, et enfin implantées en matériel (FPGA et ASIC). Une attaque par canaux cachés de type template a de plus été réalisée pour évaluer la robustesse d'un cryptosystème utilisant certaines de nos solutions. Enfin, une étude au niveau matériel a été menée dans le but de fournir à un cryptosystème ECC un comportement régulier des opérations effectuées lors de la multiplication scalaire afin de se protéger contre certaines attaques par observation.
|
|
Informatique
/ 22-10-2013
Marques Ricardo
Voir le résumé
Voir le résumé
La qualité du résultat des opérations d’échantillonnage pour la synthèse d'images est fortement dépendante du placement et de la pondération des échantillons. C’est pourquoi plusieurs travaux ont porté sur l’amélioration de l’échantillonnage purement aléatoire utilisée dans les techniques classiques de Monte Carlo. Leurs approches consistent à utiliser des séquences déterministes qui améliorent l’uniformité de la distribution des échantillons sur le domaine de l’intégration. L’estimateur résultant est alors appelé un estimateur de quasi-Monte Carlo (QMC).
Dans cette thèse, nous nous focalisons sur le cas de l’échantillonnage pour l’intégration hémisphérique. Nous allons montrer que les approches existantes peuvent être améliorées en exploitant pleinement l’information disponible (par exemple, les propriétés statistiques de la fonction à intégrer) qui est ensuite utilisée pour le placement des échantillons et pour leur pondération.
|
|
Informatique
/ 19-04-2013
Velasquez vélez Ricardo Andrés
Voir le résumé
Voir le résumé
Ces dernières années, l'effort de recherche est passé de la microarchitecture du cœur à la microarchitecture de la hiérarchie mémoire. Les modèles précis au cycle près pour processeurs multi-cœurs avec des centaines de cœurs ne sont pas pratiques pour simuler des charges multitâches réelles du fait de la lenteur de la simulation. Un grand pourcentage du temps de simulation est consacré à la simulation des différents cœurs, et ce pourcentage augmente linéairement avec chaque génération de processeur. Les modèles approximatifs sacrifient de la précision pour une vitesse de simulation accrue, et sont la seule option pour certains types de recherche. Les processeurs multi-cœurs exigent également des méthodes de simulation plus rigoureuses. Il existe plusieurs méthodes couramment utilisées pour simuler les architectures simple cœur. De telles méthodes doivent être adaptées ou même repensées pour la simulation des architectures multi-cœurs. Dans cette thèse, nous avons montré que les modèles comportementaux sont intéressants pour étudier la hiérarchie mémoire des processeurs multi-cœurs. Nous avons démontré que l'utilisation de modèles comportementaux permet d'accélérer les simulations d'un facteur entre un et deux ordres de grandeur avec des erreurs moyennes de moins de 5%. Nous avons démontré également que des modèles comportementaux peuvent aider dans le problème de la sélection des charges de travail multiprogrammées pour évaluer la performance des microarchitectures multi-cœurs.
|
|
Informatique
/ 28-03-2013
Obrovac Marko
Voir le résumé
Voir le résumé
Avec l’émergence de plates-formes distribuées très hétérogènes, dynamiques et à large-échelle, la nécessité d’un moyen de les programmer efficacement et de les gérer a surgi. Le concept de l’informatique autonomique propose de créer des systèmes autogérables — des systèmes qui sont conscients de leurs composants et de leur environnement, et peuvent se configurer, s’optimiser, se guérir et se protéger. Dans le cadre de la réalisation de tels systèmes, la programmation déclarative, dont l’objectif est de faciliter la tâche du programmeur en séparant le contrôle de la logique du calcul, a retrouvé beaucoup d’intérêt ce dernier temps. En particulier, la programmation à base de des règles est considérée comme un modèle prometteur dans cette quête pour des abstractions de programmation adéquates pour ces plates-formes. Cependant, bien que ces modèles gagnent beaucoup d’attention, ils créent une demande pour des outils génériques capables de les exécuter à large échelle. Le modèle de programmation chimique, qui a été conçu suite à la métaphore chimique, est un modéle de programmation à bas de règles et d’ordre supérieur, avec une exécution non-déterministe modèle, où les règles sont appliquées simultanément sur un multi-ensemble de données. Dans cette thèse, nous proposons la conception, le développement et l’expérimentation d’un intergiciel distribué pour l’exécution de programmes chimique sur des plates-formes à large échelle et génériques. L’architecture proposée combine une couche de communication pair-à-pair avec un protocole de capture atomique d’objets sur lesquels les règles doivent être appliquées, et un système efficace de détection de terminaison. Nous décrivons le prototype d’intergiciel mettant en œuvre cette architecture. Basé sur son déploiement dans un banc d’essai réel, nous présentons les résultats de performance, qui confirment les complexités analytiques obtenues et montrons expérimentalement la viabilité d’un tel modèle de programmation.
|
|
Chimie
/ 13-12-2013
Saleh Nidal
Voir le résumé
Voir le résumé
Au cours de ce travail de doctorat, nous avons d'abord étudié un aspect fondamental de la chiralité au niveau moléculaire visant à observer des différences d'énergie entre deux énantiomères provenant d'effets de violation de la parité (PV). Nous avons en particulier examiné les complexes oxorhénium chiraux dont les deux énantiomères présentent théoriquement des énergies d'absorption infrarouge différentes. Leur propriétés chiroptiques, en particulier leur dichroïsme circulaire vibrationnel (VCD), ont été examinées. D'autres complexes métalliques chiraux comme des complexes de platine portant un carbone asymétrique fluoré ont été préparés. Par ailleurs, nous avons étudié la chiralité hélicoïdale provenant de la fusion en ortho de plusieurs cycles aromatiques. Ainsi, des hélicènes portant des fonctionnalités bi-pyridines ont été synthétisés et ont montré des propriétés photophysiques et chiroptiques intéressantes. La présence d'unité chélatantes de type N^N’ ou N-C nous a permis d'étudier l'influence de la coordination de divers métaux de transition (Re(I) et Pt(II)) sur les propriétés et de concevoir de nouveaux commutateurs chiroptiques acido-basiques.
|
|
Informatique
/ 03-06-2013
Dominici Michele
Voir le résumé
Voir le résumé
Les maisons intelligentes sont des habitations équipées de technologies de l'information et de la communication qui anticipent et répondent aux besoins des occupants. Malgré les nombreux travaux et solutions existants, seulement peu d'exemplaires de maisons intelligentes ont été construits et vendus. La raison cachée derrière cette lente diffusion est l'orientation technologique des approches existantes. Cette thèse de doctorat vise à démontrer qu'une maison intelligente peut fournir des fonctionnalités conçues avec une approche centrée utilisateur, en prenant en compte de considérations ergonomiques sur l'activité domestique et sur la cognition humaine. Ceci est réalisé en collaboration avec des ergonomes cognitifs, qui aident à "prendre garde" à l'écart entre le contexte humain et le contexte compréhensible par une machine. En utilisant une instrumentation légère, qui minimise les problèmes d'acceptabilité et de protection de la vie privée, ce travail de thèse a mené aux contributions suivantes: (i) la conception interdisciplinaire de fonctionnalités adaptées, en collaboration avec des ergonomes cognitifs; (ii) la conception d'un système sensible au contexte qui capture et raisonne sur des informations contextuelles incertaines de façon distribuée; (iii) la réalisation d'un prototype qui démontre la fourniture de fonctionnalités qui réalisent des économies d'énergie, tout en préservant le confort des habitants.
|
|
Mécanique
/ 15-07-2013
Meng Ji Xing
Voir le résumé
Voir le résumé
Le comportement à haute pression du verre de silice a été largement étudié dansde différents domaines pour ses propriétés mécanique et physiques, tels que la mécaniquenon-linéaire, laphysiquede haute pression, laphysiquenon-cristallins, laphysique appliquée, lagéophysique, etc. La densification permanente est la propriété la plus fondamentale obtenue à partir de la haute pression. Nous discutons un modèle constitutif décrivant le mécanisme de déformation permanente par la densification sous haute pressionde verre de silice. La loi de comportement proposée dans cette étude considère que la pression est hydrostatique pure. Elle est composée d’une partieélastique et d’autre partie un écoulement décrivant l'évolution des déformations permanentes après l’initiation de ladensification. Dans cette loi, trois critères d’écrouissage sont discutés à l'égard de la dépendance de la densification incrémentale (progressive)aux niveaux de contraintes appliquées. Les mesuresexpérimentales ex-situ et in-situ sont utilisées pour évaluer notre modèle. En misant en œuvre de notre modèle dans Abaqus et SiDoLo(corotational logiciel), l’analyse inverse est utilisée pour déterminer le seuil de la pression de densification, la pression à la saturation et le taux de densification saturée. Les calculs numériques montrent un excellent accord avec les données expérimentales. Il est à noter que notre modèle non seulement réussit à déterminer les propriétés de densification, mais aussi pour prédire les changements de propriétés élastiques, telles que le module de compressibilité, le module de cisaillement, module d’élasticité et le coefficient de Poisson, sous la pression hydrostatique. Dans les perspectives, notre modèle fournit une nouvelle loi pour analyser le comportement à la déformation de silice sous l’état de contraintes complexes.
|
|
Informatique
/ 08-03-2013
Boutet Antoine
Voir le résumé
Voir le résumé
L'évolution rapide du web a changé la façon dont l'information est créée, distribuée, évaluée et consommée. L'utilisateur est dorénavant mis au centre du web en devenant le générateur de contenu le plus prolifique. Pour évoluer dans le flot d'informations, les utilisateurs ont besoin de filtrer le contenu en fonction de leurs centres d'intérêts. Pour bénéficier de contenus personnalisés, les utilisateurs font appel aux réseaux sociaux ou aux systèmes de recommandations exploitant leurs informations privées. Cependant, ces systèmes posent des problèmes de passage à l'échelle, ne prennent pas en compte la nature dynamique de l'information et soulèvent de multiples questions d'un point de vue de la vie privée. Dans cette thèse, nous exploitons les architectures pair-à-pair pour implémenter des systèmes de recommandations pour la dissémination personnalisée des news. Une approche pair-à-pair permet un passage à l'échelle naturel et évite qu'une entité centrale contrôle tous les profils des utilisateurs. Cependant, l'absence de connaissance globale fait appel à des schémas de filtrage collaboratif qui doivent palier les informations partielles et dynamiques des utilisateurs. De plus, ce schéma de filtrage doit pouvoir respecter la vie privée des utilisateurs. La première contribution de cette thèse démontre la faisabilité d'un système de recommandation de news totalement distribué. Le système proposé maintient dynamiquement un réseau social implicit pour chaque utilisateur basé sur les opinions qu'il exprime à propos des news reçues. Les news sont disséminées au travers d'un protocole épidémique hétérogène qui (1) biaise l'orientation des cibles et (2) amplifie la dissémination de chaque news en fonction du niveau d'intérêt qu'elle suscite. Ensuite, pour améliorer la vie privée des utilisateurs, nous proposons des mécanismes d'offuscation permettant de cacher le profil exact des utilisateurs sans trop dégrader la qualité de la recommandation fournie. Enfin, nous explorons un nouveau modèle tirant parti des avantages des systèmes distribués tout en conservant une architecture centralisée. Cette solution hybride et générique permet de démocratiser les systèmes de recommandations en offrant aux fournisseurs de contenu un système de personnalisation à faible coût.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|