|
Tri :
Date
Titre
Auteur
|
|
|
Informatique
/ 12-01-2026
Aubard Lucas
Voir le résumé
Voir le résumé
La fragmentation IP et la segmentation TCP permettent de diviser des paquets réseaux trop volumineux en morceaux plus petits. Ce découpage peut donner lieu à du recouvrement, c'est-à-dire que plusieurs morceaux ainsi créés peuvent se chevaucher, de manière complète ou partielle, avec des données non nécessairement identiques. Les politiques de réassemblage, c'est-à-dire le morceau de données préféré en fonction du type de recouvrement, diffèrent selon les implémentations IPv4, IPv6 et TCP. Dès lors, un système de détection d'intrusion réseau (NIDS) qui ne ré-assemble pas les recouvrements de la même manière que l'hôte surveillé est aveugle au flux réellement traité par cet hôte, laissant la place à son contournement. L'objectif principal de cette thèse est d'évaluer dans quelle mesure les NIDS sont vulnérables à des attaques basées sur les recouvrements IPv4, IPv6 et TCP. Nous proposons tout d'abord une nouvelle méthode pour modéliser les recouvrements de fragments et de segments afin de garantir la complétude des tests. Nous instancions ce modèle dans notre outil PYROLYSE et testons les politiques de réassemblage de différents types de piles IP et TCP. Nous avons découvert que les politiques sont beaucoup plus diverses et complexes que décrites dans l'état de l'art et que les NIDS Suricata, Snort et Zeek présentent des incohérences de réassemblage avec ces piles, ce qui les rend vulnérables aux attaques par recouvrement. Nous avons également trouvé des erreurs de réassemblage dans cinq piles, dont une CVE.
|
|
|
Informatique
/ 02-12-2025
Geimer Antoine
Voir le résumé
Voir le résumé
Les attaques microarchitecturales menacent l’isolation dans les environnements cloud, permettant à une VM malveillante ou au fournisseur cloud d’accéder à des données sensibles. Pour s'y prémunir, les développeurs recourent à des techniques de programmation "temps constant" et des mécanismes d'enclave comme Intel SGX, des approches demeurant imparfaites. Dans cette thèse, nous renforçons la sécurité microarchitecturale à travers trois contributions. Nous proposons d’abord une rétrospective des outils de détection de vulnérabilités par canal auxiliaire, avec une classification multi-critère. Nous concevons un benchmark commun permettant de les comparer correctement, et de les évaluer sur des vulnérabilités connues. Nous identifions alors des fonctionnalités manquantes et formulons des recommandations pour de futurs outils de détection. Nous étendons ce benchmark pour créer une approche de test différentiel, identifiant les vulnérabilités par canal auxiliaire introduites par la compilation. Nous analysons manuellement ces vulnérabilités afin d’identifier précisément les optimisations problématiques. Nos résultats montrent que la désactivation ciblée de celles-ci améliore significativement la résilience à ce type d'attaque, sans dégradation notable des performances. Enfin, nous étendons un outil d’exécution symbolique dédié aux binaires SGX afin de détecter les vulnérabilités Spectre. Notre approche est inspirée de travaux antérieurs mais adaptée au modèle mémoire spécifique utilisé. Elle permet d’améliorer significativement le passage l'échelle de l’analyse des enclaves SGX, rendant ainsi l’exploration de larges programmes réalisable en pratique.
|
|
|
Informatique
/ 27-11-2025
Hérouard Clément
Voir le résumé
Voir le résumé
L'assistant de preuve Squirrel est dédié à la vérification de protocoles cryptographiques. Le modèle utilisé par ce prouveur est appelé modèle calculatoire. Il assure un haut niveau de garanties de sécurité, mais souffre d'un manque d'automatisation. Cette thèse propose d'utiliser des méthodes symboliques et de les adapter pour le modèle calculatoire de Squirrel. Tout d'abord, les protocoles dans Squirrel sont déclarés par des processus écrits dans une variante du pi-calcul appliqué. La sémantique de ces processus n'a pas été définie dans l'article initial présentant Squirrel. L'outil utilise à la place une représentation nommée systèmes d'actions, pour laquelle une sémantique bien définie existe. La première contribution de cette thèse est de définir cette sémantique et de fournir une traduction correcte du pi-calcul vers la représentation interne des protocoles de l'outil. Ensuite, pour automatiser les preuves écrites avec Squirrel, nous concevons un système de types pour les preuves de secret dans le modèle calculatoire. Nous prouvons la correction de ce système de types et l'implémentons dans l'outil, en supportant le chiffrement symétrique et asymétrique.
|
|
|
Informatique
/ 19-11-2025
Le Roux Quentin
Voir le résumé
Voir le résumé
Cette thèse étudie les attaques par portes dérobées sur les systèmes d’apprentissage profond, prenant la reconnaissance faciale comme exemple. Contrairement à une grande partie de la littérature, qui se concentre sur l'étude de réseaux de neurones profonds de classification isolés, ce travail évalue des pipelines réalistes dans leur globalité. La thèse débute par une revue de la littérature des attaques par portes dérobées, leurs défenses, et de la reconnaissance faciale, mettant en avant plusieurs angles morts. Cette thèse démontre alors des nouvelles attaques par portes dérobées sur des modèles présents dans l'industrie, contribuant à la compréhension holistique de ces menaces. Le résultat central de cette thèse est inquiétant : compromettre n'importe quel composant d'un pipeline suffit à le saboter, permettant un accès non autorisé dans un système biométrique. Ce travail propose alors plusieurs contremesures et recommandations pour se prémunir contre de futures attaques. En ancrant cette recherche dans un contexte de systèmes réalistes, cette thèse met en avant un problème de vulnérabilité qui affecte un large éventail d’applications qui vont au-delà de la reconnaissance faciale.
|
|
|
Informatique
/ 03-11-2025
Boumhand Ahcene
Voir le résumé
Voir le résumé
La classification du trafic réseau est un domaine de recherche qui stimule le développement de diverses applications dans le contexte de gestion des réseaux. De nombreuses études dans ce domaine ont porté sur la classification du trafic réseau en différentes activités uniques. Cependant, la multiplication des services et des appareils connectés sur internet a donné lieu à l’émergence de nouveaux modes de consommation, comme le multitâche numérique (ou multi-activités), qui consiste à effectuer plusieurs activités simultanément. Reconnaître l’occurrence de ces situations de multi-activité peut permettre aux opérateurs de réseaux de mieux adapter leurs solutions de gestion de réseaux et aux fournisseurs de services de concevoir des solutions mieux adaptées aux exigences des utilisateurs. Dans cette thèse, nous proposons une nouvelle approche qui peut traiter un scénario comprenant à la fois des situations d’activité unique et de multi-activité. L’approche proposée analyse une trace de réseau sur une fenêtre temporelle et détermine ensuite à quel type de situation elle appartient. En outre, elle identifie le type d’activités réalisées et les applications utilisées. Les résultats obtenus sont équivalents, et dépassent souvent, ceux des techniques classiques de l’état de l’art qui ne traitent qu’une seule activité.
|
|
|
Signal, image, vision
/ 17-10-2025
Walsh Ricky
Voir le résumé
Voir le résumé
Cette thèse porte sur l'amélioration de la segmentation et de la détection des lésions de sclérose en plaques (SEP) dans l'IRM de la moelle épinière, une tâche important et complexe en pratique clinique. Une étude de la segmentation manuelle des lésions a mis en évidence une variabilité importante entre les experts, soulignant la nécessité de méthodes automatisées robustes et sensibles. Pour y répondre, nous avons étudié des stratégies de fusion pour combiner l'information de plusieurs images acquises avec des séquences IRM différentes. La fusion tardive s’est révélée particulièrement efficace, surpassant nettement les modèles basés sur une seule séquence. Enfin, la thèse introduit LesionSCynth, un cadre simple et efficace pour la synthèse de lésions réalistes de la moelle épinière, ce qui permet d'améliorer les performances dans des contextes de données limitées et de réduire la dépendance aux annotations manuelles. Globalement, les contributions de cette thèse font progresser le développement d’outils de segmentation fiables, généralisables et économes en données pour l’analyse des lésions de la moelle épinière dans la SEP.
|
|
|
Informatique
/ 02-10-2025
Rossigneux Baptiste
Voir le résumé
Voir le résumé
Cette thèse aborde le défi du déploiement de réseaux de neurones profonds sur des systèmes embarqués aux ressources contraintes. Nous exploitons la parcimonie comme un levier fondamental pour concevoir des modèles de vision par ordinateur à la fois efficaces et performants. Nos contributions s'articulent en trois axes. Premièrement, nous nous attaquons au goulot d'étranglement de la mémoire dans les réseaux de neurones convolutifs (CNN). Nous proposons une double couche de projection qui, insérée avec un rapide entraînement, réduit l'empreinte mémoire maximale du réseau, puis se combine aux couches existantes pour n'induire aucun surcoût calculatoire à l'inférence. Deuxièmement, nous présentons une méthode d'élagage de non-linéarités visant à réduire la profondeur effective des modèles. Nous introduisons un critère statistique rapide, basé sur la distribution des activations, qui identifie les non-linéarités redondantes. Cette approche permet de fusionner des couches linéaires successives tout en préservant la précision du modèle. Enfin, nous tentons de réduire la quantité de calculs demandée par les Modèles de Vision-Language (VLMs) par la voie de la réduction des tokens données en entrée. Dans un même temps nous tentons de réduire la sensibilité au bruit de ces modèles en débruitant les tokens gardés, avant de les donner au modèle de langage.
|
|
|
Informatique
/ 09-07-2025
Ghodhbane Chourouk
Voir le résumé
Voir le résumé
Pour faire face à la demande croissante de trafic des utilisateurs mobiles et améliorer la couverture, une densification des stations de base est nécessaire. La technologie Integrated Access and Backhaul (IAB) a été proposée pour faciliter cette densification en définissant des nœuds IAB qui agissent comme des stations de base mais sont connectés sans-fil au réseau fixe. Toutefois, l’IAB introduit des défis techniques complexes, tels que : i) le partage de la bande passante entre l’accès et le backhaul, et ii) la planification qui doit être conforme à la contrainte de semi-duplex. Dans cette thèse, nous nous concentrons sur les politiques de sélection de cellule et d’allocation de ressources pour les réseaux IAB. Pour la sélection de cellule, nous proposons une politique permettant à chaque utilisateur de s’associer à un nœud IAB qui optimise la consommation de ressources tout en respectant la capacité de chaque cellule, afin de maximiser la capacité du réseau et d’assurer un bon équilibrage de charge. Concernant l’allocation des ressources, deux politiques sont proposées. La première, gérée par la station de base principale, permet une répartition dynamique des ressources sur la bande passante partagée entre les différents nœuds IAB, avec une gestion optimisée des interférences. Une fois les ressources allouées à chaque cellule, une seconde politique entre en jeu pour permettre à chaque nœud IAB de distribuer ses ressources entre ses utilisateurs en fonction de leurs besoins en matière de Qualité de Service (QoS), principalement en termes de latence. Ces politiques visent à améliorer la capacité du réseau et à offrir un haut niveau de satisfaction aux utilisateurs, en tenant compte des conditions du réseau et des exigences des utilisateurs.
|
|
|
Informatique
/ 02-07-2025
Mognol Meven
Voir le résumé
Voir le résumé
La bio-informatique est un domaine où les besoins en calcul sont extrêmement importants. En particulier, en génomique, la dernière décennie a vu l’émergence de nouvelles technologies de séquençage de l’ADN, entraînant une explosion de la quantité de données à traiter. Les algorithmes de traitement de ces données ont évolué, mais se heurtent de plus en plus aux limites matérielles liées à l’accès mémoire sur des architectures traditionnelles telles que les CPU et les GPU. Bien que certains composants, tels que les FPGA, permettent de créer des circuits très spécialisés, ces derniers restent coûteux et nécessitent une grande expertise pour leur mise en œuvre. Parallèlement, le processing-in-memory (PiM), une technologie envisagée dès les années 1970, attire un intérêt croissant dans l’industrie. Dans ce manuscrit, nous analysons trois algorithmes liés à la génomique sur l’accélérateur PiM généraliste et programmable de la société UPMEM. Nous étudions d’abord le comportement des algorithmes sur une architecture CPU traditionnelle, implémentons leur équivalent sur le PiM UPMEM, et comparons les performances en termes de temps d’exécution et de consommation énergétique. Enfin, nous formulons des recommandations, fondées sur nos études, pour les futures architectures PiM généralistes.
|
|
|
Informatique
/ 28-05-2025
Randrianaina Georges Aaron
Voir le résumé
Voir le résumé
La compilation de logiciels au sein de systèmes hautement configurables est devenue une tâche toujours plus complexe et coûteuse en ressources, d’autant que les pratiques de développement modernes s’appuient fortement sur l’intégration continue (CI). La prolifération des options de configuration, des directives de compilation conditionnelle aux dépendances externes, fait qu’assurer la compilation correcte et efficace des différentes variantes d’un logiciel représente un défi majeur. Les recompilations complètes demeurent la norme, mais elles se révèlent souvent inefficaces lorsqu’elles sont répétées pour de nombreuses configurations. Cette thèse examine la faisabilité, les avantages et les limites de la compilation incrémentale des configurations logicielles, une stratégie qui réutilise les artefacts de compilations antérieures pour accélérer les suivantes. Au moyen d’études empiriques menées sur des systèmes réels (Linux, Busybox, Toybox, x264, xz, curl, sqlite, et plus…), ce travail montre que la compilation incrémentale peut réduire significativement les temps de compilation, avec des gains pouvant atteindre 66 %. Deux applications concrètes sont explorées : la réduction du coût global de la compilation d’ensembles fixes de configurations et l’accélération de l’exploration de grands espaces de configuration. Nous identifions toutefois plusieurs défis, notamment le risque de compilations incorrectes et la difficulté de garantir la reproductibilité lorsqu’on réutilise des artefacts. Pour y remédier, nous proposons des méthodes permettant de détecter et de corriger les configurations non reproductibles, ainsi que PyroBuildS, une nouvelle technique qui contrôle la diversité des configurations à l’aide de listes d’exclusion et d’opérateurs de variation. PyroBuildS offre des compilations incrémentales à la fois efficaces et reproductibles, réduisant les temps de compilation de 16 % à 22 % sur plusieurs systèmes configurables. Cette thèse est la toute première à étudier la compilation incrémental de configurations logicielles. Elle ouvre de nouvelles perspectives sur la manière de rendre les systèmes de build plus efficaces et plus fiables face à la variabilité des configurations, et elle trace des pistes prometteuses pour la recherche et les outils en génie logiciel.
|
|