|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Titre
Auteur
|
|
Informatique
/ 19-12-2024
Pradels Léo
Voir le résumé
Voir le résumé
Les modèles d'apprentissage profond basés sur les CNNs offrent des performances de pointe dans les tâches de traitement d'images et de vidéos, en particulier pour l'amélioration ou la classification d'images. Cependant, ces modèles sont lourds en calcul et en empreinte mémoire, ce qui les rend inadaptés aux contraintes de temps réel sur des FPGA embarqués. Il est donc essentiel de compresser ces CNNs et de concevoir des architectures d'accélérateurs pour l'inférence qui intègrent la compression dans une approche de co-conception matérielle et logicielle. Bien que des optimisations logicielles telles que l'élagage aient été proposées, elles manquent souvent de structure nécessaire à une intégration efficace de l'accélérateur. Pour répondre à ces limitations, cette thèse se concentre sur l'accélération des CNNs sur FPGA tout en respectant les contraintes de temps réel sur les systèmes embarqués. Cet objectif est atteint grâce à plusieurs contributions clés. Tout d'abord, elle introduit l'élagage des motifs, qui impose une structure à la sparsité du réseau, permettant une accélération matérielle efficace avec une perte de précision minimale due à la compression. Deuxièmement, un accélérateur pour l'inférence de CNN est présenté, qui adapte son architecture en fonction des critères de performance d'entrée, des spécifications FPGA et de l'architecture du modèle CNN cible. Une méthode efficace d'intégration de l'élagage des motifs dans l'accélérateur et un flux complet pour l'accélération de CNN sont proposés. Enfin, des améliorations de la compression du réseau sont explorées grâce à la quantification de Shift\&Add, qui modifie les méthodes de multiplication sur FPGA tout en maintenant la précision du réseau de base.
|
|
Informatique
/ 18-12-2024
Gestin Mathieu
Voir le résumé
Voir le résumé
Dans cette thèse, nous nous intéressons aux systèmes de gestion d’identité totalement distribués respectant la vie privée. Ces systèmes ont pour but de permettre à un utilisateur de s’authentifier et d’être autorisé par un fournisseur de services, tout en ne lui révélant que les informations strictement nécessaires. De plus, ces systèmes doivent être résilients à la présence de processus malveillant. Dans ce contexte, nous nous intéressons à deux points. D’abord, aux certificats anonymes et à leur propriétés de respect de la vie privée. Nous identifions un manque qui réduit cette propriété dans l’état de l’art, et nous le corrigeons grâce à un nouveau type de signature : les certificats anonymes à émetteurs cachés. Ensuite, nous nous intéressons aux algorithmes distribués utilisés pour les propriétés annexes des systèmes de gestion d’identité distribués, notamment pour la révocation de certificats, ou la gestion de clés publiques. Nous analysons formellement ces problèmes, notamment du point de vue de leur consensus number. Ces analyses nous permettent finalement de proposer des algorithmes pour implémenter un système de gestion de l’identité totalement distribué qui nécessite une synchronisation réduite. En d’autres termes, un système où l’utilisation d’algorithmes de consensus est réduite au minimum.
|
|
Informatique
/ 13-12-2024
Hannoush Khodor
Voir le résumé
Voir le résumé
Les progrès rapides des technologies de séquençage ont révolutionné la génomique, conduisant à des bases de données génomiques massives et à des milliers de génomes assemblés. Cette croissance exponentielle des données a mis en évidence les limites des modèles traditionnels basés sur des références et a motivé le développement de représentations pan-génomiques qui reflètent la diversité des espèces. Parmi ces représentations, les graphes de de Bruijn compactés (cDBG) constituent une approche de pointe pour le stockage et les requêtes sur les grands ensembles de données génomiques. En regroupant les séquences redondantes et en représentant efficacement les chevauchements des k-mères, les cDBG minimisent la mémoire et le coût de calcul. Cependant, l'ajout de nouveaux génomes sur le cDBG pose des problèmes en raison de la nature statique de la plupart structures de données basées sur des cDBG, qui nécessitent souvent une reconstruction complète, ce qui les rend coûteux et inefficaces. Pour relever le défi de l'ajout de séquences, des méthodes permettant des mises à jour dynamiques des cDBG sans reconstruction complète sont nécessaires. Cette thèse présente, Cdbgtricks, une méthode de mise à jour d'un cDBG et de son index en ciblant les régions du graphe qui doivent être modifiées. En utilisant l'index mis à jour, Cdbgtricks permet de requêter une séquence et de rapporter les positions de ses k-mères dans le graphe, avec la possibilité de requêter des millions de séquences.
|
|
Informatique
/ 12-12-2024
Gicquel Antoine
Voir le résumé
Voir le résumé
Les attaques multi-fautes permettent de compromettre la sécurité d'applications prouvées théoriquement robustes, et cela, malgré l'intégration de mécanismes de sécurité. L'évaluation de sécurité pour ce type d'attaque comporte une analyse du programme pour déterminer des vulnérabilités puis une campagne d'injection de fautes sur du matériel. Cependant, considérer plusieurs fautes lors de l'analyse reste un problème ouvert en raison de la taille de l'espace des états fautés à explorer. Ce document vise à étudier les techniques d'évaluation de la sécurité contre des attaques multi-fautes. D'abord, nous explorons faisabilité d’une méthode de détermination de vulnérabilités basée exclusivement sur l’analyse statique. Ensuite, nous étudions une méthode d'identification des paramètres d'injection de fautes afin de faciliter la réalisation de campagne. Des expérimentations ont été menées sur des programmes d'évaluation de code PIN comportant diverses contre-mesures logicielles. Les résultats démontrent l'efficacité de notre approche, avec des attaques comportant jusqu'à huit fautes impactant plus de 80 instructions.
|
|
Informatique
/ 28-11-2024
Ruiz Baptiste
Voir le résumé
Voir le résumé
La composition du microbiote intestinal influence diverses maladies et peut être utilisée pour la classification automatique de l'état de santé. Cette thèse propose une méthode intégrant l'annotation fonctionnelle du microbiote intestinal dans un processus de classification automatique pour améliorer l'interprétation des résultats. En utilisant les données taxonomiques et les annotations fonctionnelles via le pipeline EsMeCaTa, un profil fonctionnel du microbiote est établi. Ces profils, microbien et fonctionnel, servent à entraîner des Forêts Aléatoires pour différencier les échantillons malades des témoins. Une sélection automatique des variables basée sur leur importance est itérée jusqu'à la diminution des performances de classification. Les résultats montrent que les profils fonctionnels offrent des performances comparables aux profils microbiens et permettent d'identifier un sous-ensemble robuste de variables discriminantes. Ces variables se sont révélées plus fiables que celles obtenues par des méthodes de référence et ont été validées par une recherche bibliographique. L'analyse des interconnexions entre taxons et annotations fonctionnelles a révélé que certaines annotations importantes sont issues de l'influence cumulative de taxons non sélectionnés.
|
|
Signal, image, vision
/ 26-11-2024
Petit Claude
Voir le résumé
Voir le résumé
Dans cette thèse, nous étudions trois aspects du problème de réduction de la dimension. Le premier concerne la compression de base de données. Nous proposons plusieurs algorithmes d’échantillonnage préservant l’information contenue dans les données, ainsi que deux applications au conditionnement de matrices et à l’acquisition comprimée. Ces algorithmes sont déterministes et leur faible complexité en font une alternative intéressante aux meilleurs algorithmes connus. Le second aspect abordé concerne la sparsification de graphe. Nous proposons de réduire le nombre d’arêtes d’un graphe tout en préservant sa connectivité. Nous élaborons deux algorithmes itératifs, déterministes et de faible complexité, permettant d’approcher la solution de ce problème NP-difficile. Nous présentons également une application possible à la simplification du graphe sous-jacent à un réseau neuronal sur graphe. La troisième partie de la thèse traite d’acquisition comprimée et propose une analyse statistique d’un algorithme de reconstruction de signaux parcimonieux. Dans le cadre d’un modèle asymptotique où la matrice de mesure et le signal sont aléatoires et pour lequel les paramètres de taille tendent vers l’infini à la même vitesse, nous montrons que la probabilité de succès à une itération donnée tend vers 1.
|
|
Signal, image, vision
/ 25-11-2024
Gu Kai
Voir le résumé
Voir le résumé
Cette thèse examine les systèmes d’imagerie omnidirectionnelle avancés, la capture de champs lumineux et les pipelines de rendu, ainsi que le dernier paradigme de reconstruction de scènes, le champ de radiance (Radiance Field, RF). Elle traite des défis clés liés à l’utilisation du RF pour la représentation de champs lumineux sphériques et la reconstruction de scènes. Les principales contributions sont les suivantes : Tout d’abord, nous étendons les Champs de Radiance Neuronaux (NeRF) pour prendre en charge les entrées d’images omnidirectionnelles en intégrant un modèle de caméra fisheye optimisable. Cela permet la reconstruction de scènes à 360 degrés avec des images grand angle, en mettant l’accent sur l’échantillonnage de rayons sphériques. Ensuite, nous améliorons la reconstruction de scènes à 360 degrés à partir d’images omnidirectionnelles éparses en combinant l’estimation de points de fuite avec un encodage fréquentiel dans un cadre d’encodage de hachage efficace. Enfin, nous intégrons des techniques de segmentation d’images 2D de haute qualité pour contraindre les objets dans des espaces 3D limités, améliorant ainsi la précision de la reconstruction de scènes et la segmentation cohérente en 3D.
|
|
Signal, image, vision
/ 18-11-2024
Bella Adrien
Voir le résumé
Voir le résumé
Dans cette thèse, le cycle de vie de la marée interne et sa perte de cohérence par ses interactions avec les courants sont étudiés dans l’Atlantique Nord à l’aide d’une simulation d’un océan réaliste à haute résolution. Une décomposition en mode verticaux est utilisée pour obtenir le budget d’énergie des différentes échelles de la marée interne. La dispersion topographique est dominante à l’échelle du bassin et aux niveaux des reliefs, tandis que les interactions entre la marée interne et la circulation basse fréquence signent au niveau du Gulf Stream, de son prolongement Nord Atlantique et dans le Nord du Bassin. Enfin, une décomposition en partie cohérente/incohérente est utilisée. Les causes de la perte de cohérence de la marée sur des échelles de un à trois mois sont l’advection de la marée interne par l’écoulement lentement variable et le cisaillement horizontal de ce dernier. Cette perte de cohérence se fait majoritairement sans changement d’échelle pour la marée.
|
|
Informatique
/ 01-07-2024
Venkataramanan Shashanka
Voir le résumé
Voir le résumé
Le principal objectif de la vision par ordinateur est de permettre aux machines d'extraire des informations significatives à partir de données visuelles, telles que des images et des vidéos, et de tirer parti de ces informations pour effectuer une large gamme de tâches. À cette fin, de nombreuses recherches se sont concentrées sur le développement de modèles d'apprentissage profond capables de coder des représentations visuelles complètes et robustes. Une stratégie importante dans ce contexte consiste à préentraîner des modèles sur des ensembles de données à grande échelle, tels qu'ImageNet, pour apprendre des représentations qui peuvent présenter une applicabilité transversale aux tâches et faciliter la gestion réussie de diverses tâches en aval avec un minimum d'effort. Pour faciliter l'apprentissage sur ces ensembles de données à grande échelle et coder de bonnes représentations, des stratégies complexes d'augmentation des données ont été utilisées. Cependant, ces augmentations peuvent être limitées dans leur portée, étant soit conçues manuellement et manquant de diversité, soit générant des images qui paraissent artificielles. De plus, ces techniques d'augmentation se sont principalement concentrées sur le jeu de données ImageNet et ses tâches en aval, limitant leur applicabilité à un éventail plus large de problèmes de vision par ordinateur. Dans cette thèse, nous visons à surmonter ces limitations en explorant différentes approches pour améliorer l'efficacité et l'efficience de l'apprentissage des représentations. Le fil conducteur des travaux présentés est l'utilisation de techniques basées sur l'interpolation, telles que mixup, pour générer des exemples d'entraînement diversifiés et informatifs au-delà du jeu de données original. Dans le premier travail, nous sommes motivés par l'idée de la déformation comme un moyen naturel d'interpoler des images plutôt que d'utiliser une combinaison convexe. Nous montrons que l'alignement géométrique des deux images dans l'espace des caractéristiques permet une interpolation plus naturelle qui conserve la géométrie d'une image et la texture de l'autre, la reliant au transfert de style. En nous appuyant sur ces observations, nous explorons la combinaison de mix6up et de l'apprentissage métrique profond. Nous développons une formulation généralisée qui intègre mix6up dans l'apprentissage métrique, conduisant à des représentations améliorées qui explorent des zones de l'espace d'embedding au-delà des classes d'entraînement. En nous appuyant sur ces insights, nous revisitons la motivation originale de mixup et générons un plus grand nombre d'exemples interpolés au-delà de la taille du mini-lot en interpolant dans l'espace d'embedding. Cette approche nous permet d'échantillonner sur l'ensemble de l'enveloppe convexe du mini-lot, plutôt que juste le long des segments linéaires entre les paires d'exemples. Enfin, nous explorons le potentiel de l'utilisation d'augmentations naturelles d'objets à partir de vidéos. Nous introduisons un ensemble de données "Walking Tours" de vidéos égocentriques en première personne, qui capturent une large gamme d'objets et d'actions dans des transitions de scènes naturelles. Nous proposons ensuite une nouvelle méthode de préentraînement auto-supervisée appelée DoRA, qui détecte et suit des objets dans des images vidéo, dérivant de multiples vues à partir des suivis et les utilisant de manière auto-supervisée.
|
|
Signal, image, vision
/ 20-06-2024
Kaafarani Reda
Voir le résumé
Voir le résumé
Cette thèse porte sur l'optimisation d'un système d'encodage vidéo multi-profils pour un service de streaming à débit binaire adaptatif (ABR). Dans la première contribution, nous évaluons les performances du Versatile Video Coding en calculant son enveloppe convexe et en comparant les résultats à ceux de ses prédécesseurs. Nous démontrons l'importance de la réévaluation de l'échelle de débits pour les nouveaux standards de codage et son impact sur l'optimisation des systèmes ABR. Dans la deuxième contribution, nous proposons un modèle de calcul des coûts inhérents aux différents processus utilisés par un système ABR pour livrer du contenu vidéo et modélisons leurs coûts à l'aide d'expressions formelles. Nous montrons que les coûts dépendent du scénario de livraison visé et d'autres caractéristiques d'utilisation, ce qui prouve l'importance de viser des compromis d'optimisation entre les différents processus et coûts associés. Dans la dernière contribution, nous proposons des schémas de codage général pour optimiser l'encodage multi-profils. Nous nous concentrons sur le codage différentiel prédicitif des residus et proposons deux approches novatrices qui accélèrent le processus de transcodage. De plus, nous proposons des techniques d'optimisation novatrices pour explorer les compromis débit-distorsion, et montrons qu'elles améliorent l'efficacité de compression.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|