|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Titre
Auteur
|
|
Informatique
/ 28-05-2025
Randrianaina Georges Aaron
Voir le résumé
Voir le résumé
La compilation de logiciels au sein de systèmes hautement configurables est devenue une tâche toujours plus complexe et coûteuse en ressources, d’autant que les pratiques de développement modernes s’appuient fortement sur l’intégration continue (CI). La prolifération des options de configuration, des directives de compilation conditionnelle aux dépendances externes, fait qu’assurer la compilation correcte et efficace des différentes variantes d’un logiciel représente un défi majeur. Les recompilations complètes demeurent la norme, mais elles se révèlent souvent inefficaces lorsqu’elles sont répétées pour de nombreuses configurations. Cette thèse examine la faisabilité, les avantages et les limites de la compilation incrémentale des configurations logicielles, une stratégie qui réutilise les artefacts de compilations antérieures pour accélérer les suivantes. Au moyen d’études empiriques menées sur des systèmes réels (Linux, Busybox, Toybox, x264, xz, curl, sqlite, et plus…), ce travail montre que la compilation incrémentale peut réduire significativement les temps de compilation, avec des gains pouvant atteindre 66 %. Deux applications concrètes sont explorées : la réduction du coût global de la compilation d’ensembles fixes de configurations et l’accélération de l’exploration de grands espaces de configuration. Nous identifions toutefois plusieurs défis, notamment le risque de compilations incorrectes et la difficulté de garantir la reproductibilité lorsqu’on réutilise des artefacts. Pour y remédier, nous proposons des méthodes permettant de détecter et de corriger les configurations non reproductibles, ainsi que PyroBuildS, une nouvelle technique qui contrôle la diversité des configurations à l’aide de listes d’exclusion et d’opérateurs de variation. PyroBuildS offre des compilations incrémentales à la fois efficaces et reproductibles, réduisant les temps de compilation de 16 % à 22 % sur plusieurs systèmes configurables. Cette thèse est la toute première à étudier la compilation incrémental de configurations logicielles. Elle ouvre de nouvelles perspectives sur la manière de rendre les systèmes de build plus efficaces et plus fiables face à la variabilité des configurations, et elle trace des pistes prometteuses pour la recherche et les outils en génie logiciel.
|
|
Informatique
/ 27-05-2025
La Fuente Léo de
Voir le résumé
Voir le résumé
Le calcul proche mémoire constitue une approche prometteuse pour atteindre un objectif de faible consommation énergétique dans les systèmes embarqués. Ce paradigme limite l’énergie dépensée lors des transferts de données entre le processeur et la mémoire. Toutefois, la gestion des instructions de calcul induit une part de consommation supplémentaire. Cette thèse propose une approche visant à réduire la consommation énergétique à l’aide d’un séquenceur capable de générer les instructions de calcul en mémoire. L’intégration de ce séquenceur dans l’unité de contrôle d’une architecture de calcul proche mémoire existante adaptée aux systèmes embarqués permet d’optimiser l’exécution des opérations tout en limitant les transferts de données, entraînant ainsi une réduction significative de la consommation énergétique. Un circuit, modélisé et simulé après synthèse, placement et routage, permet d’obtenir des estimations réalistes de la consommation. Ce circuit intègre un séquenceur dédié à la multiplication matricielle, réduisant le coût d’exécution de cette opération dans un contexte de calcul proche mémoire. De plus, des estimations ont été réalisées pour évaluer l’impact de cette approche sur d’autres opérations telles que la transformée de Fourier rapide (TFR) et la transformée en cosinus discrète (TCD).
|
|
Informatique
/ 23-05-2025
Kirchner Paul
Voir le résumé
Voir le résumé
La cryptanalyse de schémas de cryptographie à clé publique repose sur un ensemble de techniques algorithmiques et algébriques en théorie des nombres. Dans une première partie de cette thèse, nous présentons des améliorations de l’algorithme LLL, dû à Lenstra, Lenstra et Lovasz pour réduire un réseau euclidien, c’est-à-dire réduire la norme et orthogonaliser le plus possible les vecteurs de la base. Nous montrons aussi comment utiliser cet algorithme pour réduire des réseaux modules en rang 2 dans un corps de nombres cyclotomique ayant des sous-corps. En effet, certains schémas comme NTRU ou Falcon, dont la sécurité repose sur ce problème difficile, ont été proposés en cryptographie post-quantique et pour du chiffrement homomorphe. Nous améliorons aussi les techniques d’algèbre linéaire creuse et proposons de meilleurs algorithmes lorsque la matrice est à diagonale dominante. Ces avancées nous permettent de réaliser de nouveaux records de calculs de corps de nombres : nombre de classes, générateurs du groupe des unités, générateur d’un idéal principal. Dans une seconde partie, nous étudions différents problèmes classiques en théorie des nombres : nous améliorons différents algorithmes pour tester la primalité d’un entier et en particulier, le test cyclotomique initialement proposé par Adleman et dernièrement développé par Mihailescu. Puis, nous étudions différents algorithmes dans un modèle dit de l’anneau en boîte noire, c’est-à-dire que nous étudions le nombre d’additions et de multiplications dans l’anneau, sans nous intéresser à la façon de représenter et de faire les calculs dans cet anneau. Ceci nous permet dans le dernier chapitre, d’instancier ces algorithmes en fonction de différents anneaux pour proposer des algorithmes efficaces en cryptanalyse. Ce faisant, nous sommes capables de distribuer plus facilement les calculs de tout l’algorithme, alors que les algorithmes dit de calcul d’indice utilisent une étape d’algèbre linéaire qu’il est difficile de paralléliser.
|
|
Signal, image, vision
/ 21-05-2025
Freitas Davi Rabbouni de Carvalho
Voir le résumé
Voir le résumé
Cette thèse donne un aperçu de la fonction plénoptique et de la manière dont elle est liée aux contenus volumétriques, par le biais de représentations de scènes plénoptiques. Elle passe en revue les méthodes existantes qui introduisent cette capacité de manière explicite et implicite, sous la forme d’un nuage de points plénoptique (PPC) et de champs de radiance (RF), respectivement. Ces méthodes sont présentées du point de vue des défis qu’elles posent en termes de praticité pour les applications de diffusion en continu de contenu interactif, à savoir la taille et la vitesse. Dans un premier temps, nous avons intégré la capacité plénoptique pour le codeur MPEG basé sur la géométrie (G-PCC) en compressant les PPC à l’aide d’une combinaison des transformées linéaires sur le vecteur de couleur des différents points de vue de la caméra combinées aux codeurs d’attributs prédictifs du G-PCC. Nous abordons ensuite les inconvénients liés à la taille des implémentations de rendu en temps réel des méthodes basées sur le NeRF, en introduisant un pipeline de compression dans le modèle PlenOctrees. Ensuite, nous introduisons une méthode pour générer systématiquement des PPC et les comparer directement aux solutions RF avec des mesures conventionnelles basées sur le rendu. Enfin, nous tirons parti de la géométrie sous-jacente des modèles RF pour orienter leur élagage en vue d’une compression plus efficace.
|
|
Informatique
/ 30-04-2025
Ben Ali Sami
Voir le résumé
Voir le résumé
L’entraînement des réseaux neuronaux profonds (DNN) est très gourmand en ressources de calcul, d’où l’intérêt pour l’arithmétique de basse précision afin d’améliorer l’efficacité. Cette thèse explore de nouvelles approches pour permettre un entraînement efficace en basse précision pour les accélérateurs d’apprentissage profond. Tout d’abord, nous présentons MPTorch-FPGA, une extension de l’environnement MPTorch conçue pour faciliter l’entraînement de DNN à faible précision pour des environnements CPU, GPU et FPGA. MPTorch-FPGA peut générer un accélérateur spécifique au modèle pour l’entraînement DNN, avec des tailles et des implémentations arithmétiques personnalisables, offrant une précision au niveau du bit par rapport à l’entraînement DNN émulé sur les GPU ou les CPU. Un algorithme de correspondance hors ligne sélectionne l’une des configurations FPGA pré-générées (statiques) en utilisant un modèle de performance pour estimer la latence. Deuxièmement, nous proposons une unité de multiplication-accumulation (MAC) optimisée, basée sur des arrondis stochastiques et adaptée à l’apprentissage en basse précision. Notre conception utilise un multiplicateur FP8 avec une accumulation FP12 et s’appuie sur une nouvelle implémentation de l’arrondi stochastique dans les additionneurs à virgule flottante, réduisant de manière significative la surface, la consommation d’énergie et le délai par rapport aux implémentations conventionnelles. Ensemble, ces contributions soulignent le potentiel de l’arithmétique personnalisée et de l’entraînement en précision mixte pour améliorer les performances des accélérateurs d’apprentissage profond tout en préservant la précision du modèle.
|
|
Informatique
/ 15-03-2025
El Attar Zahraa
Voir le résumé
Voir le résumé
Le slicing des réseaux 5G complique leur surveillance, rendant les approches traditionnelles inefficaces face à l'augmentation du trafic et aux exigences de latence. Cette thèse explore la tomographie réseau à travers deux contributions : la sélection des chemins de mesure via un algorithme génétique et une approche par Réseaux de Convolution de Graphes Relationnels (RGCN) pour généraliser le placement des moniteurs. En combinant tomographie et apprentissage automatique, ces solutions offrent une surveillance plus efficace et adaptable des réseaux 5G et futurs.
|
|
Signal, image, vision
/ 13-03-2025
Balti Nidhal
Voir le résumé
Voir le résumé
Cette thèse explore de nouvelles méthodologies visant à améliorer les performances et l'applicabilité des systèmes de surveillance non intrusive de la consommation électrique (NILM), en répondant aux principaux défis liés à la précision de la désagrégation énergétique et à leur adaptabilité. Un cadre sensible au contexte a été développé en intégrant des données de capteurs environnementaux—telles que la température, l'humidité et l'occupation—dans les processus NILM, améliorant significativement l'identification des appareils ayant des signatures de puissance chevauchantes ou influencées par des conditions environnementales. Une contribution majeure de cette recherche est la création d'un ensemble de données à haute résolution, combinant des mesures de consommation énergétique et des données environnementales, collecté à partir de la plateforme SmartSense. Cet ensemble de données a été intégré dans l'outil NILMTK, offrant une ressource accessible et précieuse pour la communauté de recherche NILM.
D'autre part, cette thèse introduit la Spiral Layer, une architecture de réseau neuronal novatrice inspirée par les opérations de rotation, conçue pour une extraction efficace des caractéristiques et une réduction dimensionnelle. Cette architecture a été étendue pour implémenter une Transformée de Karhunen-Loève (KLT) entraînable, offrant une approche basée sur les réseaux neuronaux pour les projections orthogonales et la maximisation de la variance des signaux. La Spiral Layer a démontré des performances similaires sur des tâches de référence, validant son potentiel pour des applications diversifiées.
|
|
Informatique
/ 26-02-2025
Bazouzi Aymen
Voir le résumé
Voir le résumé
Les Ressources Éducatives Libres (RELs) sont des matériaux d'enseignement, d'apprentissage et de recherche destinés au public, permettant leur utilisation libre. Elles peuvent être utilisées par les enseignants pour créer de nouveaux cours. Les enseignants peuvent combiner différentes RELs pour atteindre un objectif d'apprentissage spécifique. Le projet CLARA a été lancé pour permettre aux enseignants de créer des cours sous licence basées sur des RELs existantes. Dans cette thèse, financée par le projet CLARA, notre objectif est d'enrichir le corpus éducatif CLARA de RELs contenant des relations utiles entre elles, facilitant ainsi la navigation pour les enseignants. Pour ce faire, plusieurs contributions ont été apportées dans cette thèse. Premièrement, la création d'un outil de construction de dataset qui permet aux utilisateurs de créer leurs propres datasets éducatifs personnalisés à partir de transcriptions de vidéos YouTube. Deuxièmement, le développement d'une représentation vectorielle (embedding) qui prend en compte les spécificités des RELs, à savoir la centralité du contenu et la présence de caractéristiques sémantiques. Troisièmement, la proposition d'une méthode de requête qui récupère les RELs pertinentes pour une liste de mots-clés en se basant sur représentations RELs. Quatrièmement, la conception d'un modèle qui identifie les relations de précédence possibles entre des paires de REL en utilisant un Graphe de Connaissance (Knowledge Graph) et en exploitant un Réseau de Neurones sur Graphes (GNN). Les contributions faites fonctionnent en harmonie afin d'enrichir le corpus CLARA avec des ressources éducatives, de les récupérer et d'identifier les relations possibles entre elles, facilitant ainsi la navigation pour les utilisateurs.
|
|
Informatique
/ 18-02-2025
Hoseininasab Sara sadat
Voir le résumé
Voir le résumé
La conception de circuits complexes, tels que les processeurs, nécessite un prototypage itératif afin d’explorer diverses caractéristiques micro architecturales et d’obtenir des performances optimales. Ce processus repose usuellement sur l’utilisation des langages de description matérielle comme Verilog qui nécessitent beaucoup de travail et sont sujets aux erreurs. Modifier un design impose souvent une réécriture significative du code HDL, rendant la conception itérative et l’exploration de l’espace de conception fastidieuses et inefficaces, en particulier avec l’augmentation de la complexité matérielle. La synthèse de haut niveau (HLS) offre une alternative en permettant aux concepteurs de décrire le comportement des processeurs dans des langages de haut niveau comme le C/C++. Cependant, comme la HLS repose sur un ordonnancement statique, elle gère de manière conservatrice les dépendances dans le processeur, dégradant ainsi les performances en augmentant l’intervalle d’initiation (II). Ce manuscrit propose une méthodologie pour concevoir des processeurs entièrement pipelinés en HLS sans exposer les détails du pipeline dans la spécification de haut niveau. Les contributions principales incluent des techniques de multi-threading statique et dynamique, un mécanisme d’ordonnancement dynamique et une architecture multi-coeur. Ces innovations permettent un pipelining efficace, une exploration rapide de l’espace de conception ainsi qu’une exécution performante. Les designs proposés sont validées sur FPGA, démontrant leur praticité et leur performances.
|
|
Informatique
/ 11-02-2025
Nguyen Phuong-Hoa
Voir le résumé
Voir le résumé
La cryptanalyse traditionnelle repose souvent sur des méthodes heuristiques et statistiques, mais les outils automatisés ont récemment suscité une attention particulière. Cette thèse explore leur application pour améliorer la cryptanalyse de chiffrements spécifiques. Nous revisitons d’abord les attaques boomerang à clés liées sur AES, en introduisant un modèle MILP avancé pour gérer les générations de sous-clés non linéaires, ce qui permet de réduire considérablement la complexité temporelle par rapport aux approches précédentes. Ensuite, nous améliorons l’attaque par rebond sur la fonction de hachage Grøstl avec un modèle MILP unifié qui automatise la recherche de chemins différentiels dans les phases entrantes et sortantes. Enfin, nous étendons le cadre MITM différentiel des chiffrements AndRX orientés mots aux chiffrements orientés bits, en proposant le premier modèle bit par bit automatisé pour identifier les attaques MITM différentielles complètes pour ces chiffrements. Les résultats présentés dans cette thèse mettent en évidence le potentiel des outils automatisés pour améliorer la cryptanalyse des chiffrements par blocs modernes et des fonctions de hachage, ouvrant la porte à de nouvelles avancées possibles dans la lutte contre des conceptions cryptographiques de plus en plus complexes.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|