|
Tri :
Date
Titre
Auteur
|
|
|
Informatique
/ 03-11-2025
Boumhand Ahcene
Voir le résumé
Voir le résumé
La classification du trafic réseau est un domaine de recherche qui stimule le développement de diverses applications dans le contexte de gestion des réseaux. De nombreuses études dans ce domaine ont porté sur la classification du trafic réseau en différentes activités uniques. Cependant, la multiplication des services et des appareils connectés sur internet a donné lieu à l’émergence de nouveaux modes de consommation, comme le multitâche numérique (ou multi-activités), qui consiste à effectuer plusieurs activités simultanément. Reconnaître l’occurrence de ces situations de multi-activité peut permettre aux opérateurs de réseaux de mieux adapter leurs solutions de gestion de réseaux et aux fournisseurs de services de concevoir des solutions mieux adaptées aux exigences des utilisateurs. Dans cette thèse, nous proposons une nouvelle approche qui peut traiter un scénario comprenant à la fois des situations d’activité unique et de multi-activité. L’approche proposée analyse une trace de réseau sur une fenêtre temporelle et détermine ensuite à quel type de situation elle appartient. En outre, elle identifie le type d’activités réalisées et les applications utilisées. Les résultats obtenus sont équivalents, et dépassent souvent, ceux des techniques classiques de l’état de l’art qui ne traitent qu’une seule activité.
|
|
|
Informatique
/ 02-10-2025
Rossigneux Baptiste
Voir le résumé
Voir le résumé
Cette thèse aborde le défi du déploiement de réseaux de neurones profonds sur des systèmes embarqués aux ressources contraintes. Nous exploitons la parcimonie comme un levier fondamental pour concevoir des modèles de vision par ordinateur à la fois efficaces et performants. Nos contributions s'articulent en trois axes. Premièrement, nous nous attaquons au goulot d'étranglement de la mémoire dans les réseaux de neurones convolutifs (CNN). Nous proposons une double couche de projection qui, insérée avec un rapide entraînement, réduit l'empreinte mémoire maximale du réseau, puis se combine aux couches existantes pour n'induire aucun surcoût calculatoire à l'inférence. Deuxièmement, nous présentons une méthode d'élagage de non-linéarités visant à réduire la profondeur effective des modèles. Nous introduisons un critère statistique rapide, basé sur la distribution des activations, qui identifie les non-linéarités redondantes. Cette approche permet de fusionner des couches linéaires successives tout en préservant la précision du modèle. Enfin, nous tentons de réduire la quantité de calculs demandée par les Modèles de Vision-Language (VLMs) par la voie de la réduction des tokens données en entrée. Dans un même temps nous tentons de réduire la sensibilité au bruit de ces modèles en débruitant les tokens gardés, avant de les donner au modèle de langage.
|
|
|
Informatique
/ 09-07-2025
Ghodhbane Chourouk
Voir le résumé
Voir le résumé
Pour faire face à la demande croissante de trafic des utilisateurs mobiles et améliorer la couverture, une densification des stations de base est nécessaire. La technologie Integrated Access and Backhaul (IAB) a été proposée pour faciliter cette densification en définissant des nœuds IAB qui agissent comme des stations de base mais sont connectés sans-fil au réseau fixe. Toutefois, l’IAB introduit des défis techniques complexes, tels que : i) le partage de la bande passante entre l’accès et le backhaul, et ii) la planification qui doit être conforme à la contrainte de semi-duplex. Dans cette thèse, nous nous concentrons sur les politiques de sélection de cellule et d’allocation de ressources pour les réseaux IAB. Pour la sélection de cellule, nous proposons une politique permettant à chaque utilisateur de s’associer à un nœud IAB qui optimise la consommation de ressources tout en respectant la capacité de chaque cellule, afin de maximiser la capacité du réseau et d’assurer un bon équilibrage de charge. Concernant l’allocation des ressources, deux politiques sont proposées. La première, gérée par la station de base principale, permet une répartition dynamique des ressources sur la bande passante partagée entre les différents nœuds IAB, avec une gestion optimisée des interférences. Une fois les ressources allouées à chaque cellule, une seconde politique entre en jeu pour permettre à chaque nœud IAB de distribuer ses ressources entre ses utilisateurs en fonction de leurs besoins en matière de Qualité de Service (QoS), principalement en termes de latence. Ces politiques visent à améliorer la capacité du réseau et à offrir un haut niveau de satisfaction aux utilisateurs, en tenant compte des conditions du réseau et des exigences des utilisateurs.
|
|
|
Informatique
/ 02-07-2025
Mognol Meven
Voir le résumé
Voir le résumé
La bio-informatique est un domaine où les besoins en calcul sont extrêmement importants. En particulier, en génomique, la dernière décennie a vu l’émergence de nouvelles technologies de séquençage de l’ADN, entraînant une explosion de la quantité de données à traiter. Les algorithmes de traitement de ces données ont évolué, mais se heurtent de plus en plus aux limites matérielles liées à l’accès mémoire sur des architectures traditionnelles telles que les CPU et les GPU. Bien que certains composants, tels que les FPGA, permettent de créer des circuits très spécialisés, ces derniers restent coûteux et nécessitent une grande expertise pour leur mise en œuvre. Parallèlement, le processing-in-memory (PiM), une technologie envisagée dès les années 1970, attire un intérêt croissant dans l’industrie. Dans ce manuscrit, nous analysons trois algorithmes liés à la génomique sur l’accélérateur PiM généraliste et programmable de la société UPMEM. Nous étudions d’abord le comportement des algorithmes sur une architecture CPU traditionnelle, implémentons leur équivalent sur le PiM UPMEM, et comparons les performances en termes de temps d’exécution et de consommation énergétique. Enfin, nous formulons des recommandations, fondées sur nos études, pour les futures architectures PiM généralistes.
|
|
|
Informatique
/ 28-05-2025
Randrianaina Georges Aaron
Voir le résumé
Voir le résumé
La compilation de logiciels au sein de systèmes hautement configurables est devenue une tâche toujours plus complexe et coûteuse en ressources, d’autant que les pratiques de développement modernes s’appuient fortement sur l’intégration continue (CI). La prolifération des options de configuration, des directives de compilation conditionnelle aux dépendances externes, fait qu’assurer la compilation correcte et efficace des différentes variantes d’un logiciel représente un défi majeur. Les recompilations complètes demeurent la norme, mais elles se révèlent souvent inefficaces lorsqu’elles sont répétées pour de nombreuses configurations. Cette thèse examine la faisabilité, les avantages et les limites de la compilation incrémentale des configurations logicielles, une stratégie qui réutilise les artefacts de compilations antérieures pour accélérer les suivantes. Au moyen d’études empiriques menées sur des systèmes réels (Linux, Busybox, Toybox, x264, xz, curl, sqlite, et plus…), ce travail montre que la compilation incrémentale peut réduire significativement les temps de compilation, avec des gains pouvant atteindre 66 %. Deux applications concrètes sont explorées : la réduction du coût global de la compilation d’ensembles fixes de configurations et l’accélération de l’exploration de grands espaces de configuration. Nous identifions toutefois plusieurs défis, notamment le risque de compilations incorrectes et la difficulté de garantir la reproductibilité lorsqu’on réutilise des artefacts. Pour y remédier, nous proposons des méthodes permettant de détecter et de corriger les configurations non reproductibles, ainsi que PyroBuildS, une nouvelle technique qui contrôle la diversité des configurations à l’aide de listes d’exclusion et d’opérateurs de variation. PyroBuildS offre des compilations incrémentales à la fois efficaces et reproductibles, réduisant les temps de compilation de 16 % à 22 % sur plusieurs systèmes configurables. Cette thèse est la toute première à étudier la compilation incrémental de configurations logicielles. Elle ouvre de nouvelles perspectives sur la manière de rendre les systèmes de build plus efficaces et plus fiables face à la variabilité des configurations, et elle trace des pistes prometteuses pour la recherche et les outils en génie logiciel.
|
|
|
Informatique
/ 27-05-2025
La Fuente Léo de
Voir le résumé
Voir le résumé
Le calcul proche mémoire constitue une approche prometteuse pour atteindre un objectif de faible consommation énergétique dans les systèmes embarqués. Ce paradigme limite l’énergie dépensée lors des transferts de données entre le processeur et la mémoire. Toutefois, la gestion des instructions de calcul induit une part de consommation supplémentaire. Cette thèse propose une approche visant à réduire la consommation énergétique à l’aide d’un séquenceur capable de générer les instructions de calcul en mémoire. L’intégration de ce séquenceur dans l’unité de contrôle d’une architecture de calcul proche mémoire existante adaptée aux systèmes embarqués permet d’optimiser l’exécution des opérations tout en limitant les transferts de données, entraînant ainsi une réduction significative de la consommation énergétique. Un circuit, modélisé et simulé après synthèse, placement et routage, permet d’obtenir des estimations réalistes de la consommation. Ce circuit intègre un séquenceur dédié à la multiplication matricielle, réduisant le coût d’exécution de cette opération dans un contexte de calcul proche mémoire. De plus, des estimations ont été réalisées pour évaluer l’impact de cette approche sur d’autres opérations telles que la transformée de Fourier rapide (TFR) et la transformée en cosinus discrète (TCD).
|
|
|
Informatique
/ 23-05-2025
Kirchner Paul
Voir le résumé
Voir le résumé
La cryptanalyse de schémas de cryptographie à clé publique repose sur un ensemble de techniques algorithmiques et algébriques en théorie des nombres. Dans une première partie de cette thèse, nous présentons des améliorations de l’algorithme LLL, dû à Lenstra, Lenstra et Lovasz pour réduire un réseau euclidien, c’est-à-dire réduire la norme et orthogonaliser le plus possible les vecteurs de la base. Nous montrons aussi comment utiliser cet algorithme pour réduire des réseaux modules en rang 2 dans un corps de nombres cyclotomique ayant des sous-corps. En effet, certains schémas comme NTRU ou Falcon, dont la sécurité repose sur ce problème difficile, ont été proposés en cryptographie post-quantique et pour du chiffrement homomorphe. Nous améliorons aussi les techniques d’algèbre linéaire creuse et proposons de meilleurs algorithmes lorsque la matrice est à diagonale dominante. Ces avancées nous permettent de réaliser de nouveaux records de calculs de corps de nombres : nombre de classes, générateurs du groupe des unités, générateur d’un idéal principal. Dans une seconde partie, nous étudions différents problèmes classiques en théorie des nombres : nous améliorons différents algorithmes pour tester la primalité d’un entier et en particulier, le test cyclotomique initialement proposé par Adleman et dernièrement développé par Mihailescu. Puis, nous étudions différents algorithmes dans un modèle dit de l’anneau en boîte noire, c’est-à-dire que nous étudions le nombre d’additions et de multiplications dans l’anneau, sans nous intéresser à la façon de représenter et de faire les calculs dans cet anneau. Ceci nous permet dans le dernier chapitre, d’instancier ces algorithmes en fonction de différents anneaux pour proposer des algorithmes efficaces en cryptanalyse. Ce faisant, nous sommes capables de distribuer plus facilement les calculs de tout l’algorithme, alors que les algorithmes dit de calcul d’indice utilisent une étape d’algèbre linéaire qu’il est difficile de paralléliser.
|
|
|
Informatique
/ 15-05-2025
Kebaili Zohra Kaouter
Voir le résumé
Voir le résumé
Les systèmes logiciels tendent a devenir de plus en plus complexes, ce qui engendre des coûts de maintenance élevés qui dépassent souvent les coûts de développement initiaux. L’ingénierie dirigée par les modèles (IDM) s’est imposée comme une approche incontournable pour simplifier le développement et accroître la productivité. Elle repose sur l’utilisation de métamodèles pour générer divers artefacts, y compris du code, que les développeurs améliorent ensuite avec du code additionnel pour développer les différents outils linguistiques nécessaires pour un langage logiciel, par exemple un éditeur, un vérificateur, un compilateur, des couches d’accès aux données, etc. Des infrastructures logicielles tels que Eclipse Modeling Framework (EMF) illustrent ce flux de travail, en générant des API Java qui sont ensuite enrichies a des fins de validation, de débogage et de simulation. L’un des principaux enjeux de l’EDM est l’évolution du métamodèle et son impact sur les artefacts connexes. Dans cette thèse, nous nous concentrons sur l’artefact du code et sa co-évolution avec le métamodèle en évolution. En outre, nous visons a vérifier l’exactitude comportementale de la co-évolution du métamodèle et du code. Enfin, avec l’émergence des LLM, nous explorons leur utilité pour le problème de co-évolution du métamodèle et du code. Cette thèse répond a ces problèmes en : 1) en proposant une nouvelle approche de co-évolution entièrement automatisée des métamodèles et du code. Cette approche associe les erreurs de compilation a des patrons d’utilisation des éléments du métamodèle afin de sélectionner des résolutions appropriées, puis 2) en proposant une approche automatique pour vérifier que la co-évolution du code entre différentes versions n’a pas impacte son comportement lorsque son métamodèle évolue. métamodèle évolue. Cette approche s’appuie sur l’isolation d’un sous-ensembles des tests impactes avant et après la co-évolution. du code. 3) La dernière contribution concerne l’exploration de la capacité des LLM a proposer des co-évolutions correctes du code lorsque le métamodèle évolue. Cette approche est basée sur l’ingénierie des prompts, ou nous concevons et générons des prompts en langage naturel pour faire coévoluer au mieux le code impacte par l’évolution du métamodèle. Les trois contributions ont été évaluées sur des projets EMF d’OCL, Modisco et Papyrus. L’évaluation montre que notre approche automatique de co-évolution du code résout 100% des erreurs, avec 82% de précision et 81% de rappel, réduisant de manière significative l’effort manuel. De plus, notre deuxième contribution pour la vérification de la correction comportementale peut tracer et isoler avec succès les tests impactes par les changements de métamodèle représentant 5% des tests. Ensuite, après l’exécution des tests traces, la fluctuation du nombre de tests réussis, échoués ou erronés indique si la co-évolution du code est correcte ou non. L’utilisation de cette approche nous a permis de gagner 88% sur le nombre de tests total et 84% sur le temps d’exécution. Enfin, lors de l’évaluation de la capacité de ChatGPT dans la co-évolution de code, nous avons varie la valeur de la température, et la structure des prompts données. Nous avons constate que des températures plus basses donnent de meilleurs résultats avec un taux de correction de correction de 88,7%. En ce qui concerne la structure de prompts, le fait d’inclure de l’information sur lien d’abstraction de l’erreur et la réclamer des réponses alternatives améliorent les coévolutions proposées.
|
|
|
Informatique
/ 15-03-2025
El Attar Zahraa
Voir le résumé
Voir le résumé
Le slicing des réseaux 5G complique leur surveillance, rendant les approches traditionnelles inefficaces face à l'augmentation du trafic et aux exigences de latence. Cette thèse explore la tomographie réseau à travers deux contributions : la sélection des chemins de mesure via un algorithme génétique et une approche par Réseaux de Convolution de Graphes Relationnels (RGCN) pour généraliser le placement des moniteurs. En combinant tomographie et apprentissage automatique, ces solutions offrent une surveillance plus efficace et adaptable des réseaux 5G et futurs.
|
|
|
Signal, image, vision
/ 13-03-2025
Balti Nidhal
Voir le résumé
Voir le résumé
Cette thèse explore de nouvelles méthodologies visant à améliorer les performances et l'applicabilité des systèmes de surveillance non intrusive de la consommation électrique (NILM), en répondant aux principaux défis liés à la précision de la désagrégation énergétique et à leur adaptabilité. Un cadre sensible au contexte a été développé en intégrant des données de capteurs environnementaux—telles que la température, l'humidité et l'occupation—dans les processus NILM, améliorant significativement l'identification des appareils ayant des signatures de puissance chevauchantes ou influencées par des conditions environnementales. Une contribution majeure de cette recherche est la création d'un ensemble de données à haute résolution, combinant des mesures de consommation énergétique et des données environnementales, collecté à partir de la plateforme SmartSense. Cet ensemble de données a été intégré dans l'outil NILMTK, offrant une ressource accessible et précieuse pour la communauté de recherche NILM.
D'autre part, cette thèse introduit la Spiral Layer, une architecture de réseau neuronal novatrice inspirée par les opérations de rotation, conçue pour une extraction efficace des caractéristiques et une réduction dimensionnelle. Cette architecture a été étendue pour implémenter une Transformée de Karhunen-Loève (KLT) entraînable, offrant une approche basée sur les réseaux neuronaux pour les projections orthogonales et la maximisation de la variance des signaux. La Spiral Layer a démontré des performances similaires sur des tâches de référence, validant son potentiel pour des applications diversifiées.
|
|