|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Titre
Auteur
|
|
Informatique
/ 20-12-2024
Gorius Jean-Michel
Voir le résumé
Voir le résumé
Cette thèse porte sur la synthèse automatique de processeurs à jeu d'instructions en utilisant la synthèse de haut niveau (HLS). En particulier, nous visons à générer automatiquement des cœurs de processeurs pipelinés in-order à partir d'une description de haut niveau en C sous la forme d'un simulateur de jeu d'instructions (ISS). Au cours de notre travail, nous avons développé un flot de conception matérielle entièrement automatisé qui permet de compiler une description algorithmique en circuit spéculatif, SpecHLS. Nous proposons un ensemble de transformations de code basées sur le pipeline spéculatif de boucles, afin de révéler des opportunités de spéculation sur le flot de contrôle et la mémoire dans du code C, et nous générons du code spéculatif synthétisable à l'aide d'une chaîne d'outils de HLS commerciale. SpecHLS est capable de gérer plusieurs spéculations entremêlées, des spéculations indépendantes dans des modules matériels découplés, ainsi que la spéculation mémoire. Notre travail aboutit à un flot de conception capable de générer plusieurs instances de processeurs RISC-V in-order à partir d'un ISS. Nous montrons que nous pouvons explorer efficacement un espace de conception avec des centaines de milliers de configurations matérielles spéculatives possibles en quelques minutes, et générer des processeurs compétitifs avec des cœurs de processeurs embarqués.
|
|
informatique
/ 18-12-2024
Rauch Arthur
Voir le résumé
Voir le résumé
Depuis 2018, la technologie blockchain a vu émerger de nombreuses applications, allant de la crypto-monnaie aux systèmes de santé. La plupart des blockchains existantes adoptent un modèle de réplication complète. D'un point de vue juridique, la nature entièrement répliquée des blockchains signifie que les données personnelles sont susceptibles d'être stockées sur des nœuds répartis dans différents pays. D'un point de vue technique, la réplication complète offre une bonne tolérance aux pannes, mais au détriment de la mise à l'échelle. Il est nécessaire de développer des solutions qui peuvent garantir la tolérance aux pannes avec des niveaux de réplication plus raisonnables, tout en protégeant la vie privée et en évitant les conflits avec les réglementations. Pour répondre à ces problèmes, nous proposons deux systèmes. Le premier est basé sur le partitionnement horizontal (sharding) de la blockchain afin de mieux répartir les coûts de stockage et de traitement des données entre des sous-ensembles de pairs. Le second ne repose pas sur le consensus. Il peut donc effectuer des transactions indépendantes simultanément. Cette solution introduit également un ensemble de primitives cryptographiques dont la combinaison permet d'anonymiser les échanges de données des utilisateurs et de vérifier leur légitimité, sans révéler ni stocker de données sensibles.
|
|
Informatique
/ 16-12-2024
Albouy Timothé
Voir le résumé
Voir le résumé
Cette thèse se penche sur les systèmes distribués tolérants les pannes, et s'intéresse plus particulièrement au problème de la diffusion fiable dans des environnements asynchrones sujets à des défaillances hybrides. Elle introduit un nouveau modèle de calcul combinant des défaillances byzantines de processus avec un adversaire de messages. Elle définit ensuite l'abstraction de Diffusion Fiable Byzantine Tolérante aux Adversaires de Messages (MBRB) et prouve sa condition de résilience optimale. Elle propose enfin trois algorithmes clés pour réaliser cette abstraction : un algorithme MBRB simple basé sur les signatures, une nouvelle primitive appelée k2l-cast pour des implémentations MBRB sans cryptographie, et un algorithme MBRB basé sur les codes correcteurs d'erreurs optimisant la complexité de communication. Ces contributions font progresser la compréhension des systèmes distribués tolérants les pannes, et participent aux fondations nécessaires à la conception d'algorithmes répartis résilients et efficaces, avec des applications dans les infrastructures critiques, les systèmes financiers et les technologies blockchain.
|
|
Automatique, productique et robotique
/ 12-12-2024
Srour Ali
Voir le résumé
Voir le résumé
Un défi majeur pour les systèmes autonomes est de fonctionner dans des conditions d’incertitude du monde réel. Les robots s’appuient sur des modèles de leur environnement et d’eux-mêmes pour prendre des décisions, mais ces modèles sont intrinsèque- ment des approximations. Par conséquent, des paramètres incertains peuvent entraîner des écarts significatifs entre le comportement prévu et réel du système. Cette thèse aborde le problème des incertitudes paramétriques en développant des trajectoires intrinsèque- ment robustes. En optimisant ces trajectoires dans le cadre du système en boucle fermée à l’aide de nouveaux concepts de sensibilités d’état et d’entrée introduits dans ce travail, l’approche améliore les performances des robots dans des conditions incertaines. L’objectif principal de cette thèse est d’étendre et d’appliquer ces méthodes basées sur la sensibilité pour la planification de trajectoires robustes. La validité du cadre d’optimisation proposé est évaluée empiriquement à travers de vastes campagnes statistiques, tant en simulation que dans des expériences réelles, sur deux plateformes robotiques largement utilisées : un drone quadrirotor et un manipulateur robotique.
|
|
Informatique
/ 11-12-2024
Waldburger Nicolas
Voir le résumé
Voir le résumé
Les systèmes distribués sont constitués de plusieurs composantes informatisés (que nous appelons processus) qui interagissent pour accomplir une tâche commune. Un exemple de tâche est le consensus, où tous les processus doivent se mettre d’accord sur une valeur commune. Dans cette thèse, nous nous intéressons aux systèmes à mémoire partagée, où les processus interagissent en lisant et en écrivant dans une mémoire partagée. Nous ne travaillons pas directement sur des systèmes distribués, mais plutôt sur des modèles de ces systèmes, où nous considérons des questions de vérification automatique. Nos modèles sont paramétrés : le nombre de processus n’est pas fixé à l’avance et peut être arbitrairement grand, ce qui nous permet de vérifier le système pour tout nombre de participants. Cette hypothèse permet également des propriétés de monotonicité qui simplifient l’analyse. Notre modèle, inspiré par des algorithmes de consensus de la littérature, est à ronde : chaque processus évolue de manière incrémentale en un nombre appelé
ronde, et où chaque ronde a sa propre mémoire partagée. Nous étudions de plus l’impact d’un ordonnanceur stochastique sur ce modèle à rondes. Notre approche est théorique et nous nous intéressons principalement à l’analyse de nos modèles et à la classification de nos problèmes en termes de classes
de complexité.
|
|
Informatique
/ 09-12-2024
Huang Chih-Kai
Voir le résumé
Voir le résumé
Construire une plateforme de fog computing publique, géo-distribuée, multi-tenant et à grande échelle, où n'importe quelle application peut être déployée, nécessite un grand nombre de ressources de calcul placées à différents endroits stratégiques couvrant un pays entier ou même un continent. L'un des défis pour réaliser cette plateforme publique de fog est la scalabilité. À cette fin, cette thèse se concentre sur la résolution de certains défis liés à l'évolutivité et propose une série de solutions. Tout d'abord, nous présentons le concept de méta-fédérations, où de nombreux fournisseurs de ressources locaux indépendants peuvent louer leurs ressources à plusieurs fournisseurs de fog afin de résoudre les problèmes de couverture de service et d'utilisation des ressources. Nous proposons UnBound, un système scalable de meta-federations qui aborde spécifiquement les défis difficiles du multi-tenancy introduits par les méta-fédérations. Ensuite, nous proposons deux systèmes de surveillance conçus pour les environnements de fédération de clusters géo-distribués, Acala et AdapPF, qui visent à réduire le trafic réseau inter-cluster de la surveillance tout en maintenant la précision des données de surveillance.
|
|
Signal, image, vision
/ 29-11-2024
Bachard Tom
Voir le résumé
Voir le résumé
Cette thèse explore la compression de bases de données d’images en exploitant les redondances sémantiques présentes. Nous montrons d’abord qu’un schéma de compression multi-image fondé sur des métriques pixels atteint des résultats encourageants, mais insuffisants. En effet, lorsque le taux de compression augmente, la qualité des images décodées chute considérablement. Nous concluons qu’il faut s’affranchir du cadre classique de compression. Pour se faire, l’évaluation de la distorsion est déplacée à un plus haut niveau : au niveau de la sémantique. Nous avons dès lors chercher à modéliser et à représenter cette sémantique et avons finalement convergé vers l’utilisation de modèles de fondations, CLIP spécifiquement, pour extraire et encoder cette information. De plus, nous avons prouvé expérimentalement que ces modèles possédaient de bonnes qualités pour représenter et manipuler la sémantique d’image. Finalement, nous avons pu revenir sur le problème de compression multi-image initial et proposer un schéma de compression basé CLIP qui exploitait les redondances sémantiques de la collection d’images. Ce schéma est fondé sur l’apprentissage d’un dictionnaire de sémantiques simples représentant la sémantique de la base de données d’images et possède, lui aussi, des propriétés sémantiques intéressantes. Ce schéma de compression permet une conservation autant de la sémantique que de la qualité d’image, et ce, à des débits extrêmement faibles.
|
|
Informatique
/ 29-11-2024
Pinte Caroline
Voir le résumé
Voir le résumé
Cette thèse explore l'apport des méthodes d'apprentissage automatique dans le contexte de la bi-modalité EEG-IRMf, avec pour objectif de localiser automatiquement et précisément les électrodes EEG dans un volume IRM et de prédire des scores neurofeedback IRMf à partir de signaux EEG. La première partie présente le contexte et les outils utilisés, en abordant les modalités EEG et IRMf ainsi que leur combinaison, le neurofeedback, les réseaux de neurones artificiels, la segmentation d'images et la régression de séries temporelles. La deuxième partie comprend trois contributions principales. La première décrit le développement d'une méthode permettant détecter automatiquement la position et l'étiquetage des électrodes EEG dans un volume IRM à l'aide d'une séquence IRM spécifique. La deuxième contribution propose une méthode de recherche d'hyperparamètres d'architecture de modèles basée sur un algorithme génétique. Ces modèles sont ensuite entraînés sur plusieurs sujets afin de prédire des scores neurofeedback IRMf à partir de signaux EEG. Cette étude compare différentes architectures issues de deux catégories de réseaux neuronaux : les LSTMs et les CNNs. Enfin, la troisième contribution consiste à étudier une piste d'amélioration de ces modèles. Ce travail évalue l'impact de la réduction de la variabilité inter-sujet sur les performances, en appliquant un alignement dans l'espace euclidien aux données EEG.
|
|
Informatique
/ 27-11-2024
Faure Roland
Voir le résumé
Voir le résumé
Cette thèse propose des solutions pour améliorer l'assemblage des génomes à partir de lectures de séquençage de troisième génération (lectures longues). Plus précisément, elle se concentre sur l'amélioration de l'assemblage des (méta)génomes contenant plusieurs haplotypes, comme des génomes polyploïdes ou des souches bactériennes proches. Les assembleurs actuels ont du mal à séparer les haplotypes très similaires, et fusionnent généralement des (parties d')haplotypes, ce qui entraîne la perte de polymorphismes et d'hétérozygotie dans l'assemblage final. Ce travail présente une série de méthodes et de logiciels pour obtenir des assemblages contenant des haplotypes bien séparés. Plus précisément, GenomeTailor et HairSplitter transforment un assemblage obtenu avec des lectures longues erronées en un assemblage phasé, améliorant considérablement l'état de l'art lorsque de nombreuses souches sont présentes. Le logiciel Alice propose une nouvelle méthode, basée sur des nouveaux sketchs ``MSR'', pour assembler efficacement plusieurs haplotypes séquencés avec des lectures de haute fidélité. Enfin, cette thèse propose une nouvelle stratégie de scaffolding Hi-C basée sur le démêlage des graphes d'assemblage qui améliore considérablement les assemblages finaux, en particulier lorsque plusieurs haplotypes sont présents.
|
|
Informatique
/ 21-11-2024
Wadoux Lily
Voir le résumé
Voir le résumé
Les avancées récentes ont élargi le champ des possibles en synthèse de parole, en particulier pour les systèmes multi-locuteurs. Le clonage de voix correspond à la production de parole ressemblant à la voix d'un locuteur cible à partir d'une entrée textuelle et d'un échantillon audio de la cible. En théorie, ils sont capables de synthétiser la voix de n'importe quel locuteur, à partir d'un corpus audio de référence de quelques minutes seulement. Dans ce document, deux questions sont au cœur des raisonnements et des expériences présentées : Si le clonage de voix peut, en théorie, reproduire la voix de n'importe quel locuteur, alors comment se comporterait-il face à des locuteurs atypiques ? Cet axe est exploré dans ce document en premier lieu à travers des données issues de livres audio, puis avec des études préliminaires visant à une application pour les patients atteints de dysphonie. La grande majorité des études portant sur le clonage de voix sont entraînées et testées sur des données en anglais. Serait-il possible, et avec quelles performances, d'entraîner un modèle de clonage de voix dans une autre langue et de le tester avec des locuteurs parlant cette langue ? Cette question est abordée dans ce document avec le choix de la langue française, qui restreint les possibilités en termes de disponibilité de corpus, et implique des compromis entre qualité et nombre de locuteurs.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|