|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Titre
Auteur
|
|
Informatique
/ 20-12-2024
Gorius Jean-Michel
Voir le résumé
Voir le résumé
Cette thèse porte sur la synthèse automatique de processeurs à jeu d'instructions en utilisant la synthèse de haut niveau (HLS). En particulier, nous visons à générer automatiquement des cœurs de processeurs pipelinés in-order à partir d'une description de haut niveau en C sous la forme d'un simulateur de jeu d'instructions (ISS). Au cours de notre travail, nous avons développé un flot de conception matérielle entièrement automatisé qui permet de compiler une description algorithmique en circuit spéculatif, SpecHLS. Nous proposons un ensemble de transformations de code basées sur le pipeline spéculatif de boucles, afin de révéler des opportunités de spéculation sur le flot de contrôle et la mémoire dans du code C, et nous générons du code spéculatif synthétisable à l'aide d'une chaîne d'outils de HLS commerciale. SpecHLS est capable de gérer plusieurs spéculations entremêlées, des spéculations indépendantes dans des modules matériels découplés, ainsi que la spéculation mémoire. Notre travail aboutit à un flot de conception capable de générer plusieurs instances de processeurs RISC-V in-order à partir d'un ISS. Nous montrons que nous pouvons explorer efficacement un espace de conception avec des centaines de milliers de configurations matérielles spéculatives possibles en quelques minutes, et générer des processeurs compétitifs avec des cœurs de processeurs embarqués.
|
|
Informatique
/ 19-12-2024
Pradels Léo
Voir le résumé
Voir le résumé
Les modèles d'apprentissage profond basés sur les CNNs offrent des performances de pointe dans les tâches de traitement d'images et de vidéos, en particulier pour l'amélioration ou la classification d'images. Cependant, ces modèles sont lourds en calcul et en empreinte mémoire, ce qui les rend inadaptés aux contraintes de temps réel sur des FPGA embarqués. Il est donc essentiel de compresser ces CNNs et de concevoir des architectures d'accélérateurs pour l'inférence qui intègrent la compression dans une approche de co-conception matérielle et logicielle. Bien que des optimisations logicielles telles que l'élagage aient été proposées, elles manquent souvent de structure nécessaire à une intégration efficace de l'accélérateur. Pour répondre à ces limitations, cette thèse se concentre sur l'accélération des CNNs sur FPGA tout en respectant les contraintes de temps réel sur les systèmes embarqués. Cet objectif est atteint grâce à plusieurs contributions clés. Tout d'abord, elle introduit l'élagage des motifs, qui impose une structure à la sparsité du réseau, permettant une accélération matérielle efficace avec une perte de précision minimale due à la compression. Deuxièmement, un accélérateur pour l'inférence de CNN est présenté, qui adapte son architecture en fonction des critères de performance d'entrée, des spécifications FPGA et de l'architecture du modèle CNN cible. Une méthode efficace d'intégration de l'élagage des motifs dans l'accélérateur et un flux complet pour l'accélération de CNN sont proposés. Enfin, des améliorations de la compression du réseau sont explorées grâce à la quantification de Shift\&Add, qui modifie les méthodes de multiplication sur FPGA tout en maintenant la précision du réseau de base.
|
|
informatique
/ 18-12-2024
Rauch Arthur
Voir le résumé
Voir le résumé
Depuis 2018, la technologie blockchain a vu émerger de nombreuses applications, allant de la crypto-monnaie aux systèmes de santé. La plupart des blockchains existantes adoptent un modèle de réplication complète. D'un point de vue juridique, la nature entièrement répliquée des blockchains signifie que les données personnelles sont susceptibles d'être stockées sur des nœuds répartis dans différents pays. D'un point de vue technique, la réplication complète offre une bonne tolérance aux pannes, mais au détriment de la mise à l'échelle. Il est nécessaire de développer des solutions qui peuvent garantir la tolérance aux pannes avec des niveaux de réplication plus raisonnables, tout en protégeant la vie privée et en évitant les conflits avec les réglementations. Pour répondre à ces problèmes, nous proposons deux systèmes. Le premier est basé sur le partitionnement horizontal (sharding) de la blockchain afin de mieux répartir les coûts de stockage et de traitement des données entre des sous-ensembles de pairs. Le second ne repose pas sur le consensus. Il peut donc effectuer des transactions indépendantes simultanément. Cette solution introduit également un ensemble de primitives cryptographiques dont la combinaison permet d'anonymiser les échanges de données des utilisateurs et de vérifier leur légitimité, sans révéler ni stocker de données sensibles.
|
|
Informatique
/ 18-12-2024
Gestin Mathieu
Voir le résumé
Voir le résumé
Dans cette thèse, nous nous intéressons aux systèmes de gestion d’identité totalement distribués respectant la vie privée. Ces systèmes ont pour but de permettre à un utilisateur de s’authentifier et d’être autorisé par un fournisseur de services, tout en ne lui révélant que les informations strictement nécessaires. De plus, ces systèmes doivent être résilients à la présence de processus malveillant. Dans ce contexte, nous nous intéressons à deux points. D’abord, aux certificats anonymes et à leur propriétés de respect de la vie privée. Nous identifions un manque qui réduit cette propriété dans l’état de l’art, et nous le corrigeons grâce à un nouveau type de signature : les certificats anonymes à émetteurs cachés. Ensuite, nous nous intéressons aux algorithmes distribués utilisés pour les propriétés annexes des systèmes de gestion d’identité distribués, notamment pour la révocation de certificats, ou la gestion de clés publiques. Nous analysons formellement ces problèmes, notamment du point de vue de leur consensus number. Ces analyses nous permettent finalement de proposer des algorithmes pour implémenter un système de gestion de l’identité totalement distribué qui nécessite une synchronisation réduite. En d’autres termes, un système où l’utilisation d’algorithmes de consensus est réduite au minimum.
|
|
Informatique
/ 16-12-2024
Albouy Timothé
Voir le résumé
Voir le résumé
Cette thèse se penche sur les systèmes distribués tolérants les pannes, et s'intéresse plus particulièrement au problème de la diffusion fiable dans des environnements asynchrones sujets à des défaillances hybrides. Elle introduit un nouveau modèle de calcul combinant des défaillances byzantines de processus avec un adversaire de messages. Elle définit ensuite l'abstraction de Diffusion Fiable Byzantine Tolérante aux Adversaires de Messages (MBRB) et prouve sa condition de résilience optimale. Elle propose enfin trois algorithmes clés pour réaliser cette abstraction : un algorithme MBRB simple basé sur les signatures, une nouvelle primitive appelée k2l-cast pour des implémentations MBRB sans cryptographie, et un algorithme MBRB basé sur les codes correcteurs d'erreurs optimisant la complexité de communication. Ces contributions font progresser la compréhension des systèmes distribués tolérants les pannes, et participent aux fondations nécessaires à la conception d'algorithmes répartis résilients et efficaces, avec des applications dans les infrastructures critiques, les systèmes financiers et les technologies blockchain.
|
|
Informatique
/ 13-12-2024
Hannoush Khodor
Voir le résumé
Voir le résumé
Les progrès rapides des technologies de séquençage ont révolutionné la génomique, conduisant à des bases de données génomiques massives et à des milliers de génomes assemblés. Cette croissance exponentielle des données a mis en évidence les limites des modèles traditionnels basés sur des références et a motivé le développement de représentations pan-génomiques qui reflètent la diversité des espèces. Parmi ces représentations, les graphes de de Bruijn compactés (cDBG) constituent une approche de pointe pour le stockage et les requêtes sur les grands ensembles de données génomiques. En regroupant les séquences redondantes et en représentant efficacement les chevauchements des k-mères, les cDBG minimisent la mémoire et le coût de calcul. Cependant, l'ajout de nouveaux génomes sur le cDBG pose des problèmes en raison de la nature statique de la plupart structures de données basées sur des cDBG, qui nécessitent souvent une reconstruction complète, ce qui les rend coûteux et inefficaces. Pour relever le défi de l'ajout de séquences, des méthodes permettant des mises à jour dynamiques des cDBG sans reconstruction complète sont nécessaires. Cette thèse présente, Cdbgtricks, une méthode de mise à jour d'un cDBG et de son index en ciblant les régions du graphe qui doivent être modifiées. En utilisant l'index mis à jour, Cdbgtricks permet de requêter une séquence et de rapporter les positions de ses k-mères dans le graphe, avec la possibilité de requêter des millions de séquences.
|
|
Automatique, productique et robotique
/ 12-12-2024
Srour Ali
Voir le résumé
Voir le résumé
Un défi majeur pour les systèmes autonomes est de fonctionner dans des conditions d’incertitude du monde réel. Les robots s’appuient sur des modèles de leur environnement et d’eux-mêmes pour prendre des décisions, mais ces modèles sont intrinsèque- ment des approximations. Par conséquent, des paramètres incertains peuvent entraîner des écarts significatifs entre le comportement prévu et réel du système. Cette thèse aborde le problème des incertitudes paramétriques en développant des trajectoires intrinsèque- ment robustes. En optimisant ces trajectoires dans le cadre du système en boucle fermée à l’aide de nouveaux concepts de sensibilités d’état et d’entrée introduits dans ce travail, l’approche améliore les performances des robots dans des conditions incertaines. L’objectif principal de cette thèse est d’étendre et d’appliquer ces méthodes basées sur la sensibilité pour la planification de trajectoires robustes. La validité du cadre d’optimisation proposé est évaluée empiriquement à travers de vastes campagnes statistiques, tant en simulation que dans des expériences réelles, sur deux plateformes robotiques largement utilisées : un drone quadrirotor et un manipulateur robotique.
|
|
Informatique
/ 12-12-2024
Gicquel Antoine
Voir le résumé
Voir le résumé
Les attaques multi-fautes permettent de compromettre la sécurité d'applications prouvées théoriquement robustes, et cela, malgré l'intégration de mécanismes de sécurité. L'évaluation de sécurité pour ce type d'attaque comporte une analyse du programme pour déterminer des vulnérabilités puis une campagne d'injection de fautes sur du matériel. Cependant, considérer plusieurs fautes lors de l'analyse reste un problème ouvert en raison de la taille de l'espace des états fautés à explorer. Ce document vise à étudier les techniques d'évaluation de la sécurité contre des attaques multi-fautes. D'abord, nous explorons faisabilité d’une méthode de détermination de vulnérabilités basée exclusivement sur l’analyse statique. Ensuite, nous étudions une méthode d'identification des paramètres d'injection de fautes afin de faciliter la réalisation de campagne. Des expérimentations ont été menées sur des programmes d'évaluation de code PIN comportant diverses contre-mesures logicielles. Les résultats démontrent l'efficacité de notre approche, avec des attaques comportant jusqu'à huit fautes impactant plus de 80 instructions.
|
|
Informatique
/ 11-12-2024
Waldburger Nicolas
Voir le résumé
Voir le résumé
Les systèmes distribués sont constitués de plusieurs composantes informatisés (que nous appelons processus) qui interagissent pour accomplir une tâche commune. Un exemple de tâche est le consensus, où tous les processus doivent se mettre d’accord sur une valeur commune. Dans cette thèse, nous nous intéressons aux systèmes à mémoire partagée, où les processus interagissent en lisant et en écrivant dans une mémoire partagée. Nous ne travaillons pas directement sur des systèmes distribués, mais plutôt sur des modèles de ces systèmes, où nous considérons des questions de vérification automatique. Nos modèles sont paramétrés : le nombre de processus n’est pas fixé à l’avance et peut être arbitrairement grand, ce qui nous permet de vérifier le système pour tout nombre de participants. Cette hypothèse permet également des propriétés de monotonicité qui simplifient l’analyse. Notre modèle, inspiré par des algorithmes de consensus de la littérature, est à ronde : chaque processus évolue de manière incrémentale en un nombre appelé
ronde, et où chaque ronde a sa propre mémoire partagée. Nous étudions de plus l’impact d’un ordonnanceur stochastique sur ce modèle à rondes. Notre approche est théorique et nous nous intéressons principalement à l’analyse de nos modèles et à la classification de nos problèmes en termes de classes
de complexité.
|
|
Informatique
/ 09-12-2024
Huang Chih-Kai
Voir le résumé
Voir le résumé
Construire une plateforme de fog computing publique, géo-distribuée, multi-tenant et à grande échelle, où n'importe quelle application peut être déployée, nécessite un grand nombre de ressources de calcul placées à différents endroits stratégiques couvrant un pays entier ou même un continent. L'un des défis pour réaliser cette plateforme publique de fog est la scalabilité. À cette fin, cette thèse se concentre sur la résolution de certains défis liés à l'évolutivité et propose une série de solutions. Tout d'abord, nous présentons le concept de méta-fédérations, où de nombreux fournisseurs de ressources locaux indépendants peuvent louer leurs ressources à plusieurs fournisseurs de fog afin de résoudre les problèmes de couverture de service et d'utilisation des ressources. Nous proposons UnBound, un système scalable de meta-federations qui aborde spécifiquement les défis difficiles du multi-tenancy introduits par les méta-fédérations. Ensuite, nous proposons deux systèmes de surveillance conçus pour les environnements de fédération de clusters géo-distribués, Acala et AdapPF, qui visent à réduire le trafic réseau inter-cluster de la surveillance tout en maintenant la précision des données de surveillance.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|