|
Tri :
Date
Titre
Auteur
|
|
|
Informatique
/ 09-07-2025
Ghodhbane Chourouk
Voir le résumé
Voir le résumé
Pour faire face à la demande croissante de trafic des utilisateurs mobiles et améliorer la couverture, une densification des stations de base est nécessaire. La technologie Integrated Access and Backhaul (IAB) a été proposée pour faciliter cette densification en définissant des nœuds IAB qui agissent comme des stations de base mais sont connectés sans-fil au réseau fixe. Toutefois, l’IAB introduit des défis techniques complexes, tels que : i) le partage de la bande passante entre l’accès et le backhaul, et ii) la planification qui doit être conforme à la contrainte de semi-duplex. Dans cette thèse, nous nous concentrons sur les politiques de sélection de cellule et d’allocation de ressources pour les réseaux IAB. Pour la sélection de cellule, nous proposons une politique permettant à chaque utilisateur de s’associer à un nœud IAB qui optimise la consommation de ressources tout en respectant la capacité de chaque cellule, afin de maximiser la capacité du réseau et d’assurer un bon équilibrage de charge. Concernant l’allocation des ressources, deux politiques sont proposées. La première, gérée par la station de base principale, permet une répartition dynamique des ressources sur la bande passante partagée entre les différents nœuds IAB, avec une gestion optimisée des interférences. Une fois les ressources allouées à chaque cellule, une seconde politique entre en jeu pour permettre à chaque nœud IAB de distribuer ses ressources entre ses utilisateurs en fonction de leurs besoins en matière de Qualité de Service (QoS), principalement en termes de latence. Ces politiques visent à améliorer la capacité du réseau et à offrir un haut niveau de satisfaction aux utilisateurs, en tenant compte des conditions du réseau et des exigences des utilisateurs.
|
|
|
Informatique
/ 23-06-2025
Marotta Amélie
Voir le résumé
Voir le résumé
Lors de la conception d'un objet électronique, la sécurité est à prendre en considération. En effet, les sources de vulnérabilité peuvent être multiples, ainsi que les moyens de les exploiter. En particulier, nous nous intéressons à l'injection de fautes. Ces attaques consistent à perturber certains signaux d'un circuit (comme l'alimentation) afin de modifier son comportement. Que ce soit pour développer des contremesures ou des attaques efficaces, il est nécessaire de comprendre l'impact global des fautes sur un circuit intégré. L'injection de fautes électromagnétiques impacte plusieurs signaux à la fois, et donc son étude peut se révéler complexe. Cette thèse vise à étudier un effet en particulier des fautes électromagnétiques, les perturbations synchrones de l'horloge. Ce type de perturbation a été utilisé avec succès pour contourner des mesures de sécurité. Pourtant, une analyse de bout en bout n'a jamais été explorée. Dans un premier temps, nous explorons leur effet sur les bascules et leur échantillonnage, ce qui nous permet de déduire un nouveau modèle de faute. Dans un second temps, notre intérêt se porte sur l'effet des perturbations sur la microarchitecture. Nos buts sont multiples : faire le lien entre les paramètres d'injection et les différents effets observés, identifier les parties vulnérables du processeur, faire le lien avec le modèle de faute bas niveau. Ces deux contributions permettent d'améliorer la compréhension des effets de l'injection de fautes, notamment électromagnétiques, à divers niveaux d'abstraction.
|
|
|
Photonique
/ 19-06-2025
Lefrère Grégory
Voir le résumé
Voir le résumé
La propagation d’une onde de choc constitue un indicateur essentiel du comportement d’un matériau sous choc. Sa mesure nécessite à la fois la transparence du matériau et une résolution spatio-temporelle suffisante, typiquement de l’ordre du micromètre et de la nanoseconde selon les conditions de choc. À ce jour, aucun système ne combine ces deux caractéristiques. Les systèmes optiques actuels, opérant dans le visible ou le proche infrarouge, offrent la résolution requise, mais uniquement pour des mesures de surface, en raison de la faible transparence des matériaux à ces longueurs d’onde. À l’inverse, les radio-interféromètres pénètrent les matériaux mais leur résolution est limitée par la longueur d’onde (3,19 mm). Après un état de l’art sur les vélocimètres et la transparence des matériaux, nous proposons une architecture fonctionnant en continu dans le moyen infrarouge (MIR), entre 8 et 12 µm. Cette gamme de longueur d'onde offre un compromis entre résolution et pénétration. Le vélocimètre, basé sur un laser accordable, a été caractérisé dans plusieurs configurations. Des essais en laboratoire à basse et moyenne vitesse ont confirmé sa capacité à traverser les matériaux. Des expériences en conditions extrêmes ont ensuite permis de mesurer des vitesses élevées (>4000 m/s) sur des matériaux inertes puis énergétiques. Les résultats, comparés à des simulations par éléments finis, démontrent le potentiel du dispositif pour la mesure continue des vitesses de choc et de détonation.
|
|
|
Informatique
/ 28-05-2025
Randrianaina Georges Aaron
Voir le résumé
Voir le résumé
La compilation de logiciels au sein de systèmes hautement configurables est devenue une tâche toujours plus complexe et coûteuse en ressources, d’autant que les pratiques de développement modernes s’appuient fortement sur l’intégration continue (CI). La prolifération des options de configuration, des directives de compilation conditionnelle aux dépendances externes, fait qu’assurer la compilation correcte et efficace des différentes variantes d’un logiciel représente un défi majeur. Les recompilations complètes demeurent la norme, mais elles se révèlent souvent inefficaces lorsqu’elles sont répétées pour de nombreuses configurations. Cette thèse examine la faisabilité, les avantages et les limites de la compilation incrémentale des configurations logicielles, une stratégie qui réutilise les artefacts de compilations antérieures pour accélérer les suivantes. Au moyen d’études empiriques menées sur des systèmes réels (Linux, Busybox, Toybox, x264, xz, curl, sqlite, et plus…), ce travail montre que la compilation incrémentale peut réduire significativement les temps de compilation, avec des gains pouvant atteindre 66 %. Deux applications concrètes sont explorées : la réduction du coût global de la compilation d’ensembles fixes de configurations et l’accélération de l’exploration de grands espaces de configuration. Nous identifions toutefois plusieurs défis, notamment le risque de compilations incorrectes et la difficulté de garantir la reproductibilité lorsqu’on réutilise des artefacts. Pour y remédier, nous proposons des méthodes permettant de détecter et de corriger les configurations non reproductibles, ainsi que PyroBuildS, une nouvelle technique qui contrôle la diversité des configurations à l’aide de listes d’exclusion et d’opérateurs de variation. PyroBuildS offre des compilations incrémentales à la fois efficaces et reproductibles, réduisant les temps de compilation de 16 % à 22 % sur plusieurs systèmes configurables. Cette thèse est la toute première à étudier la compilation incrémental de configurations logicielles. Elle ouvre de nouvelles perspectives sur la manière de rendre les systèmes de build plus efficaces et plus fiables face à la variabilité des configurations, et elle trace des pistes prometteuses pour la recherche et les outils en génie logiciel.
|
|
|
Informatique
/ 27-05-2025
La Fuente Léo de
Voir le résumé
Voir le résumé
Le calcul proche mémoire constitue une approche prometteuse pour atteindre un objectif de faible consommation énergétique dans les systèmes embarqués. Ce paradigme limite l’énergie dépensée lors des transferts de données entre le processeur et la mémoire. Toutefois, la gestion des instructions de calcul induit une part de consommation supplémentaire. Cette thèse propose une approche visant à réduire la consommation énergétique à l’aide d’un séquenceur capable de générer les instructions de calcul en mémoire. L’intégration de ce séquenceur dans l’unité de contrôle d’une architecture de calcul proche mémoire existante adaptée aux systèmes embarqués permet d’optimiser l’exécution des opérations tout en limitant les transferts de données, entraînant ainsi une réduction significative de la consommation énergétique. Un circuit, modélisé et simulé après synthèse, placement et routage, permet d’obtenir des estimations réalistes de la consommation. Ce circuit intègre un séquenceur dédié à la multiplication matricielle, réduisant le coût d’exécution de cette opération dans un contexte de calcul proche mémoire. De plus, des estimations ont été réalisées pour évaluer l’impact de cette approche sur d’autres opérations telles que la transformée de Fourier rapide (TFR) et la transformée en cosinus discrète (TCD).
|
|
|
Informatique
/ 23-05-2025
Kirchner Paul
Voir le résumé
Voir le résumé
La cryptanalyse de schémas de cryptographie à clé publique repose sur un ensemble de techniques algorithmiques et algébriques en théorie des nombres. Dans une première partie de cette thèse, nous présentons des améliorations de l’algorithme LLL, dû à Lenstra, Lenstra et Lovasz pour réduire un réseau euclidien, c’est-à-dire réduire la norme et orthogonaliser le plus possible les vecteurs de la base. Nous montrons aussi comment utiliser cet algorithme pour réduire des réseaux modules en rang 2 dans un corps de nombres cyclotomique ayant des sous-corps. En effet, certains schémas comme NTRU ou Falcon, dont la sécurité repose sur ce problème difficile, ont été proposés en cryptographie post-quantique et pour du chiffrement homomorphe. Nous améliorons aussi les techniques d’algèbre linéaire creuse et proposons de meilleurs algorithmes lorsque la matrice est à diagonale dominante. Ces avancées nous permettent de réaliser de nouveaux records de calculs de corps de nombres : nombre de classes, générateurs du groupe des unités, générateur d’un idéal principal. Dans une seconde partie, nous étudions différents problèmes classiques en théorie des nombres : nous améliorons différents algorithmes pour tester la primalité d’un entier et en particulier, le test cyclotomique initialement proposé par Adleman et dernièrement développé par Mihailescu. Puis, nous étudions différents algorithmes dans un modèle dit de l’anneau en boîte noire, c’est-à-dire que nous étudions le nombre d’additions et de multiplications dans l’anneau, sans nous intéresser à la façon de représenter et de faire les calculs dans cet anneau. Ceci nous permet dans le dernier chapitre, d’instancier ces algorithmes en fonction de différents anneaux pour proposer des algorithmes efficaces en cryptanalyse. Ce faisant, nous sommes capables de distribuer plus facilement les calculs de tout l’algorithme, alors que les algorithmes dit de calcul d’indice utilisent une étape d’algèbre linéaire qu’il est difficile de paralléliser.
|
|
|
Signal, image, vision
/ 21-05-2025
Freitas Davi Rabbouni de Carvalho
Voir le résumé
Voir le résumé
Cette thèse donne un aperçu de la fonction plénoptique et de la manière dont elle est liée aux contenus volumétriques, par le biais de représentations de scènes plénoptiques. Elle passe en revue les méthodes existantes qui introduisent cette capacité de manière explicite et implicite, sous la forme d’un nuage de points plénoptique (PPC) et de champs de radiance (RF), respectivement. Ces méthodes sont présentées du point de vue des défis qu’elles posent en termes de praticité pour les applications de diffusion en continu de contenu interactif, à savoir la taille et la vitesse. Dans un premier temps, nous avons intégré la capacité plénoptique pour le codeur MPEG basé sur la géométrie (G-PCC) en compressant les PPC à l’aide d’une combinaison des transformées linéaires sur le vecteur de couleur des différents points de vue de la caméra combinées aux codeurs d’attributs prédictifs du G-PCC. Nous abordons ensuite les inconvénients liés à la taille des implémentations de rendu en temps réel des méthodes basées sur le NeRF, en introduisant un pipeline de compression dans le modèle PlenOctrees. Ensuite, nous introduisons une méthode pour générer systématiquement des PPC et les comparer directement aux solutions RF avec des mesures conventionnelles basées sur le rendu. Enfin, nous tirons parti de la géométrie sous-jacente des modèles RF pour orienter leur élagage en vue d’une compression plus efficace.
|
|
|
Informatique
/ 15-05-2025
Kebaili Zohra Kaouter
Voir le résumé
Voir le résumé
Les systèmes logiciels tendent a devenir de plus en plus complexes, ce qui engendre des coûts de maintenance élevés qui dépassent souvent les coûts de développement initiaux. L’ingénierie dirigée par les modèles (IDM) s’est imposée comme une approche incontournable pour simplifier le développement et accroître la productivité. Elle repose sur l’utilisation de métamodèles pour générer divers artefacts, y compris du code, que les développeurs améliorent ensuite avec du code additionnel pour développer les différents outils linguistiques nécessaires pour un langage logiciel, par exemple un éditeur, un vérificateur, un compilateur, des couches d’accès aux données, etc. Des infrastructures logicielles tels que Eclipse Modeling Framework (EMF) illustrent ce flux de travail, en générant des API Java qui sont ensuite enrichies a des fins de validation, de débogage et de simulation. L’un des principaux enjeux de l’EDM est l’évolution du métamodèle et son impact sur les artefacts connexes. Dans cette thèse, nous nous concentrons sur l’artefact du code et sa co-évolution avec le métamodèle en évolution. En outre, nous visons a vérifier l’exactitude comportementale de la co-évolution du métamodèle et du code. Enfin, avec l’émergence des LLM, nous explorons leur utilité pour le problème de co-évolution du métamodèle et du code. Cette thèse répond a ces problèmes en : 1) en proposant une nouvelle approche de co-évolution entièrement automatisée des métamodèles et du code. Cette approche associe les erreurs de compilation a des patrons d’utilisation des éléments du métamodèle afin de sélectionner des résolutions appropriées, puis 2) en proposant une approche automatique pour vérifier que la co-évolution du code entre différentes versions n’a pas impacte son comportement lorsque son métamodèle évolue. métamodèle évolue. Cette approche s’appuie sur l’isolation d’un sous-ensembles des tests impactes avant et après la co-évolution. du code. 3) La dernière contribution concerne l’exploration de la capacité des LLM a proposer des co-évolutions correctes du code lorsque le métamodèle évolue. Cette approche est basée sur l’ingénierie des prompts, ou nous concevons et générons des prompts en langage naturel pour faire coévoluer au mieux le code impacte par l’évolution du métamodèle. Les trois contributions ont été évaluées sur des projets EMF d’OCL, Modisco et Papyrus. L’évaluation montre que notre approche automatique de co-évolution du code résout 100% des erreurs, avec 82% de précision et 81% de rappel, réduisant de manière significative l’effort manuel. De plus, notre deuxième contribution pour la vérification de la correction comportementale peut tracer et isoler avec succès les tests impactes par les changements de métamodèle représentant 5% des tests. Ensuite, après l’exécution des tests traces, la fluctuation du nombre de tests réussis, échoués ou erronés indique si la co-évolution du code est correcte ou non. L’utilisation de cette approche nous a permis de gagner 88% sur le nombre de tests total et 84% sur le temps d’exécution. Enfin, lors de l’évaluation de la capacité de ChatGPT dans la co-évolution de code, nous avons varie la valeur de la température, et la structure des prompts données. Nous avons constate que des températures plus basses donnent de meilleurs résultats avec un taux de correction de correction de 88,7%. En ce qui concerne la structure de prompts, le fait d’inclure de l’information sur lien d’abstraction de l’erreur et la réclamer des réponses alternatives améliorent les coévolutions proposées.
|
|
|
Informatique
/ 30-04-2025
Ben Ali Sami
Voir le résumé
Voir le résumé
L’entraînement des réseaux neuronaux profonds (DNN) est très gourmand en ressources de calcul, d’où l’intérêt pour l’arithmétique de basse précision afin d’améliorer l’efficacité. Cette thèse explore de nouvelles approches pour permettre un entraînement efficace en basse précision pour les accélérateurs d’apprentissage profond. Tout d’abord, nous présentons MPTorch-FPGA, une extension de l’environnement MPTorch conçue pour faciliter l’entraînement de DNN à faible précision pour des environnements CPU, GPU et FPGA. MPTorch-FPGA peut générer un accélérateur spécifique au modèle pour l’entraînement DNN, avec des tailles et des implémentations arithmétiques personnalisables, offrant une précision au niveau du bit par rapport à l’entraînement DNN émulé sur les GPU ou les CPU. Un algorithme de correspondance hors ligne sélectionne l’une des configurations FPGA pré-générées (statiques) en utilisant un modèle de performance pour estimer la latence. Deuxièmement, nous proposons une unité de multiplication-accumulation (MAC) optimisée, basée sur des arrondis stochastiques et adaptée à l’apprentissage en basse précision. Notre conception utilise un multiplicateur FP8 avec une accumulation FP12 et s’appuie sur une nouvelle implémentation de l’arrondi stochastique dans les additionneurs à virgule flottante, réduisant de manière significative la surface, la consommation d’énergie et le délai par rapport aux implémentations conventionnelles. Ensemble, ces contributions soulignent le potentiel de l’arithmétique personnalisée et de l’entraînement en précision mixte pour améliorer les performances des accélérateurs d’apprentissage profond tout en préservant la précision du modèle.
|
|
|
Informatique
/ 15-03-2025
El Attar Zahraa
Voir le résumé
Voir le résumé
Le slicing des réseaux 5G complique leur surveillance, rendant les approches traditionnelles inefficaces face à l'augmentation du trafic et aux exigences de latence. Cette thèse explore la tomographie réseau à travers deux contributions : la sélection des chemins de mesure via un algorithme génétique et une approche par Réseaux de Convolution de Graphes Relationnels (RGCN) pour généraliser le placement des moniteurs. En combinant tomographie et apprentissage automatique, ces solutions offrent une surveillance plus efficace et adaptable des réseaux 5G et futurs.
|
|