|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Titre
Auteur
|
|
Signal, image, vision
/ 21-05-2025
Freitas Davi Rabbouni de Carvalho
Voir le résumé
Voir le résumé
Cette thèse donne un aperçu de la fonction plénoptique et de la manière dont elle est liée aux contenus volumétriques, par le biais de représentations de scènes plénoptiques. Elle passe en revue les méthodes existantes qui introduisent cette capacité de manière explicite et implicite, sous la forme d’un nuage de points plénoptique (PPC) et de champs de radiance (RF), respectivement. Ces méthodes sont présentées du point de vue des défis qu’elles posent en termes de praticité pour les applications de diffusion en continu de contenu interactif, à savoir la taille et la vitesse. Dans un premier temps, nous avons intégré la capacité plénoptique pour le codeur MPEG basé sur la géométrie (G-PCC) en compressant les PPC à l’aide d’une combinaison des transformées linéaires sur le vecteur de couleur des différents points de vue de la caméra combinées aux codeurs d’attributs prédictifs du G-PCC. Nous abordons ensuite les inconvénients liés à la taille des implémentations de rendu en temps réel des méthodes basées sur le NeRF, en introduisant un pipeline de compression dans le modèle PlenOctrees. Ensuite, nous introduisons une méthode pour générer systématiquement des PPC et les comparer directement aux solutions RF avec des mesures conventionnelles basées sur le rendu. Enfin, nous tirons parti de la géométrie sous-jacente des modèles RF pour orienter leur élagage en vue d’une compression plus efficace.
|
|
Informatique
/ 30-04-2025
Ben Ali Sami
Voir le résumé
Voir le résumé
L’entraînement des réseaux neuronaux profonds (DNN) est très gourmand en ressources de calcul, d’où l’intérêt pour l’arithmétique de basse précision afin d’améliorer l’efficacité. Cette thèse explore de nouvelles approches pour permettre un entraînement efficace en basse précision pour les accélérateurs d’apprentissage profond. Tout d’abord, nous présentons MPTorch-FPGA, une extension de l’environnement MPTorch conçue pour faciliter l’entraînement de DNN à faible précision pour des environnements CPU, GPU et FPGA. MPTorch-FPGA peut générer un accélérateur spécifique au modèle pour l’entraînement DNN, avec des tailles et des implémentations arithmétiques personnalisables, offrant une précision au niveau du bit par rapport à l’entraînement DNN émulé sur les GPU ou les CPU. Un algorithme de correspondance hors ligne sélectionne l’une des configurations FPGA pré-générées (statiques) en utilisant un modèle de performance pour estimer la latence. Deuxièmement, nous proposons une unité de multiplication-accumulation (MAC) optimisée, basée sur des arrondis stochastiques et adaptée à l’apprentissage en basse précision. Notre conception utilise un multiplicateur FP8 avec une accumulation FP12 et s’appuie sur une nouvelle implémentation de l’arrondi stochastique dans les additionneurs à virgule flottante, réduisant de manière significative la surface, la consommation d’énergie et le délai par rapport aux implémentations conventionnelles. Ensemble, ces contributions soulignent le potentiel de l’arithmétique personnalisée et de l’entraînement en précision mixte pour améliorer les performances des accélérateurs d’apprentissage profond tout en préservant la précision du modèle.
|
|
Informatique
/ 18-02-2025
Hoseininasab Sara sadat
Voir le résumé
Voir le résumé
La conception de circuits complexes, tels que les processeurs, nécessite un prototypage itératif afin d’explorer diverses caractéristiques micro architecturales et d’obtenir des performances optimales. Ce processus repose usuellement sur l’utilisation des langages de description matérielle comme Verilog qui nécessitent beaucoup de travail et sont sujets aux erreurs. Modifier un design impose souvent une réécriture significative du code HDL, rendant la conception itérative et l’exploration de l’espace de conception fastidieuses et inefficaces, en particulier avec l’augmentation de la complexité matérielle. La synthèse de haut niveau (HLS) offre une alternative en permettant aux concepteurs de décrire le comportement des processeurs dans des langages de haut niveau comme le C/C++. Cependant, comme la HLS repose sur un ordonnancement statique, elle gère de manière conservatrice les dépendances dans le processeur, dégradant ainsi les performances en augmentant l’intervalle d’initiation (II). Ce manuscrit propose une méthodologie pour concevoir des processeurs entièrement pipelinés en HLS sans exposer les détails du pipeline dans la spécification de haut niveau. Les contributions principales incluent des techniques de multi-threading statique et dynamique, un mécanisme d’ordonnancement dynamique et une architecture multi-coeur. Ces innovations permettent un pipelining efficace, une exploration rapide de l’espace de conception ainsi qu’une exécution performante. Les designs proposés sont validées sur FPGA, démontrant leur praticité et leur performances.
|
|
Automatique, productique et robotique
/ 24-01-2025
Noël Thibault
Voir le résumé
Voir le résumé
Ce manuscrit présente les méthodes développées pour permettre l’exploration autonome d’un environnement 3D inconnu par un robot mobile. L’exploration est une tâche transverse, regroupant divers sous-problèmes ; ici, nous nous intéressons en particulier à la planification de trajectoires, essentielle pour la navigation autonome du robot. Nous proposons en particulier deux méthodes nouvelles de construction de graphes de navigation, utilisées ensuite comme base pour l’élaboration de stratégies d’exploration plus haut-niveau. Deux approches principales sont présentées, reflétant les deux grands courants de la littérature sur le sujet : l’exploration guidée par les frontières et l’exploration par maximisation de l’information. Les méthodes proposées sont évaluées en simulation et dans divers environnements réels.
|
|
Signal, image, vision
/ 16-01-2025
Tallon Quentin
Voir le résumé
Voir le résumé
L'évaluation précise de la dose est essentielle après une exposition aux rayonnements ionisants, en particulier pour la prise en charge des victimes asymptomatiques. Parmi les méthodes disponibles, la dosimétrie biologique s'appuie sur l'imagerie cytogénétique pour identifier les aberrations chromosomiques dans les lymphocytes. Les aberrations stables, détectables par imagerie par Fluorescence In Situ Hybridization (FISH), sont particulièrement utiles pour la dosimétrie rétrospective. Cette étude vise à automatiser la détection des aberrations stables à l'aide de techniques d'apprentissage profond. Nous avons développé une méthode basé sur des modèles de pointe pour la détection d'objets au niveau de la métaphase, ainsi que des modèles de convolution pour la classification au niveau des chromosomes après segmentation. Un défi majeur était la disponibilité limitée des données annotées et la rareté des translocations, que nous avons abordées par la génération de données synthétiques à l'aide de modèles de diffusion générative. Notre approche génère des chromosomes transloqués synthétiques à partir d'images non annotées, ce qui donne des résultats prometteurs pour la détection automatisée des aberrations et améliore l'efficacité de l'imagerie cytogénétique dans les applications de dosimétrie.
|
|
Informatique
/ 19-12-2024
Pradels Léo
Voir le résumé
Voir le résumé
Les modèles d'apprentissage profond basés sur les CNNs offrent des performances de pointe dans les tâches de traitement d'images et de vidéos, en particulier pour l'amélioration ou la classification d'images. Cependant, ces modèles sont lourds en calcul et en empreinte mémoire, ce qui les rend inadaptés aux contraintes de temps réel sur des FPGA embarqués. Il est donc essentiel de compresser ces CNNs et de concevoir des architectures d'accélérateurs pour l'inférence qui intègrent la compression dans une approche de co-conception matérielle et logicielle. Bien que des optimisations logicielles telles que l'élagage aient été proposées, elles manquent souvent de structure nécessaire à une intégration efficace de l'accélérateur. Pour répondre à ces limitations, cette thèse se concentre sur l'accélération des CNNs sur FPGA tout en respectant les contraintes de temps réel sur les systèmes embarqués. Cet objectif est atteint grâce à plusieurs contributions clés. Tout d'abord, elle introduit l'élagage des motifs, qui impose une structure à la sparsité du réseau, permettant une accélération matérielle efficace avec une perte de précision minimale due à la compression. Deuxièmement, un accélérateur pour l'inférence de CNN est présenté, qui adapte son architecture en fonction des critères de performance d'entrée, des spécifications FPGA et de l'architecture du modèle CNN cible. Une méthode efficace d'intégration de l'élagage des motifs dans l'accélérateur et un flux complet pour l'accélération de CNN sont proposés. Enfin, des améliorations de la compression du réseau sont explorées grâce à la quantification de Shift\&Add, qui modifie les méthodes de multiplication sur FPGA tout en maintenant la précision du réseau de base.
|
|
Informatique
/ 18-12-2024
Gestin Mathieu
Voir le résumé
Voir le résumé
Dans cette thèse, nous nous intéressons aux systèmes de gestion d’identité totalement distribués respectant la vie privée. Ces systèmes ont pour but de permettre à un utilisateur de s’authentifier et d’être autorisé par un fournisseur de services, tout en ne lui révélant que les informations strictement nécessaires. De plus, ces systèmes doivent être résilients à la présence de processus malveillant. Dans ce contexte, nous nous intéressons à deux points. D’abord, aux certificats anonymes et à leur propriétés de respect de la vie privée. Nous identifions un manque qui réduit cette propriété dans l’état de l’art, et nous le corrigeons grâce à un nouveau type de signature : les certificats anonymes à émetteurs cachés. Ensuite, nous nous intéressons aux algorithmes distribués utilisés pour les propriétés annexes des systèmes de gestion d’identité distribués, notamment pour la révocation de certificats, ou la gestion de clés publiques. Nous analysons formellement ces problèmes, notamment du point de vue de leur consensus number. Ces analyses nous permettent finalement de proposer des algorithmes pour implémenter un système de gestion de l’identité totalement distribué qui nécessite une synchronisation réduite. En d’autres termes, un système où l’utilisation d’algorithmes de consensus est réduite au minimum.
|
|
Informatique
/ 18-12-2024
Gernigon Cédric
Voir le résumé
Voir le résumé
L'apprentissage profond commence à être employé avec succès dans diverses applications spatiales. Cependant, en raison de son empreinte mémoire et de son volume de calcul, la phase d'inférence de nombreux modèles est encore principalement réalisée sur des plateformes terrestres. Des recherches récentes se sont intéressées à la quantification des réseaux de neurones afin de réduire ce volume de calcul et de faciliter le traitement embarqué. Cette thèse étudie la quantification des réseaux de neurones et son impact sur la précision des prédictions des modèles destinés aux accélérateurs FPGA pour les applications spatiales embarquées. Nous introduisons une méthode d'optimisation pour la quantification de nombres entiers uniformes en précision mixte des poids et des activations. Sa caractéristique principale est l'utilisation de largeurs de bits fractionnaires relâchés mises à jour à l'aide d'une règle de descente de gradient, mais par ailleurs discrétisées pour toutes les opérations (lors les calculs progressif et rétrogressif). Nous présentons également une approche performante basée sur la quantification en virgule flottante de faible précision (appelée minifloats). Notre méthode adapte une approche d'entraînement de réseaux de neurones profonds quantifiés, principalement utilisée pour la quantification en nombres entiers/virgule fixe. Enfin, nous avons étudié l'impact des sauts de connexion longs des modèles de segmentation sémantique en forme de U sur la précision des prédictions et mis en évidence leur empreinte mémoire.
|
|
Informatique
/ 13-12-2024
Patotskaya Yuliya
Voir le résumé
Voir le résumé
Les environnements de réalité virtuelle (VR) transforment de nombreux domaines en offrant des expériences immersives qui améliorent l'engagement, l'apprentissage et les résultats thérapeutiques. Le mouvement du corps humain joue un rôle essentiel dans la manière dont les individus perçoivent et interagissent avec ces environnements, ce qui rend indispensable la compréhension de son impact pour concevoir des applications VR plus réalistes et engageantes. Cette thèse explore les propriétés dynamiques du mouvement dans la VR, en se concentrant sur leur influence sur le comportement et la perception des utilisateurs, notamment en ce qui concerne la locomotion, l'évitement des obstacles et la prévisibilité. S'appuyant sur de nombreuses études sur le mouvement et le comportement humain, la recherche examine l'influence de propriétés du mouvement telles que la vitesse, la prévisibilité et l'expression de traits de personnalité comme le neuroticisme dans les personnages virtuels. Ces perspectives sont cruciales pour améliorer le réalisme des agents VR et optimiser l'expérience utilisateur dans des applications variées, allant de la psychothérapie à l'éducation. À travers une série d'expériences contrôlées et d'analyses de trajectoires, cette thèse développe et affine de nouvelles méthodologies pour évaluer la perception du mouvement et concevoir des agents virtuels crédibles. De plus, la thèse présente de nouvelles approches pour créer des mouvements stylisés et à haut réalisme en utilisant des réseaux neuronaux, faisant progresser la création d'agents virtuels adaptatifs qui conservent un haut degré de réalisme tout en offrant des traits comportementaux dynamiques. En étudiant l'intersection entre le mouvement, la personnalité et l'interaction avec l'utilisateur dans la VR, cette recherche contribue au domaine plus large des technologies immersives, fournissant des informations précieuses pour les futures innovations dans les environnements virtuels. Ce travail propose également un cadre complet pour concevoir des expériences futures en VR, en introduisant de nouvelles métriques pour l'analyse comportementale dans des espaces contraints et en élargissant notre compréhension de la manière dont le mouvement influence le comportement des utilisateurs. Au final, les conclusions fournissent des étapes clés pour améliorer la conception d'environnements virtuels crédibles, engageants et efficaces dans diverses applications.
|
|
Informatique
/ 13-12-2024
Hannoush Khodor
Voir le résumé
Voir le résumé
Les progrès rapides des technologies de séquençage ont révolutionné la génomique, conduisant à des bases de données génomiques massives et à des milliers de génomes assemblés. Cette croissance exponentielle des données a mis en évidence les limites des modèles traditionnels basés sur des références et a motivé le développement de représentations pan-génomiques qui reflètent la diversité des espèces. Parmi ces représentations, les graphes de de Bruijn compactés (cDBG) constituent une approche de pointe pour le stockage et les requêtes sur les grands ensembles de données génomiques. En regroupant les séquences redondantes et en représentant efficacement les chevauchements des k-mères, les cDBG minimisent la mémoire et le coût de calcul. Cependant, l'ajout de nouveaux génomes sur le cDBG pose des problèmes en raison de la nature statique de la plupart structures de données basées sur des cDBG, qui nécessitent souvent une reconstruction complète, ce qui les rend coûteux et inefficaces. Pour relever le défi de l'ajout de séquences, des méthodes permettant des mises à jour dynamiques des cDBG sans reconstruction complète sont nécessaires. Cette thèse présente, Cdbgtricks, une méthode de mise à jour d'un cDBG et de son index en ciblant les régions du graphe qui doivent être modifiées. En utilisant l'index mis à jour, Cdbgtricks permet de requêter une séquence et de rapporter les positions de ses k-mères dans le graphe, avec la possibilité de requêter des millions de séquences.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|