Tri :
Date
Titre
Auteur
|
|
Informatique
/ 09-07-2025
Ghodhbane Chourouk
Voir le résumé
Voir le résumé
Pour faire face à la demande croissante de trafic des utilisateurs mobiles et améliorer la couverture, une densification des stations de base est nécessaire. La technologie Integrated Access and Backhaul (IAB) a été proposée pour faciliter cette densification en définissant des nœuds IAB qui agissent comme des stations de base mais sont connectés sans-fil au réseau fixe. Toutefois, l’IAB introduit des défis techniques complexes, tels que : i) le partage de la bande passante entre l’accès et le backhaul, et ii) la planification qui doit être conforme à la contrainte de semi-duplex. Dans cette thèse, nous nous concentrons sur les politiques de sélection de cellule et d’allocation de ressources pour les réseaux IAB. Pour la sélection de cellule, nous proposons une politique permettant à chaque utilisateur de s’associer à un nœud IAB qui optimise la consommation de ressources tout en respectant la capacité de chaque cellule, afin de maximiser la capacité du réseau et d’assurer un bon équilibrage de charge. Concernant l’allocation des ressources, deux politiques sont proposées. La première, gérée par la station de base principale, permet une répartition dynamique des ressources sur la bande passante partagée entre les différents nœuds IAB, avec une gestion optimisée des interférences. Une fois les ressources allouées à chaque cellule, une seconde politique entre en jeu pour permettre à chaque nœud IAB de distribuer ses ressources entre ses utilisateurs en fonction de leurs besoins en matière de Qualité de Service (QoS), principalement en termes de latence. Ces politiques visent à améliorer la capacité du réseau et à offrir un haut niveau de satisfaction aux utilisateurs, en tenant compte des conditions du réseau et des exigences des utilisateurs.
|
|
Mathématiques et leurs interactions
/ 26-06-2025
Abgrall Adrien
Voir le résumé
Voir le résumé
Cette thèse étudie la géométrie de l’outre-espace non-twisté associé à un groupe d’Artin à angles droits A, construit par Charney, Stambaugh et Vogtmann en 2017. Il s’agit d’un espace classifiant K pour un sous-groupe d’indice fini du groupe U(A) des automorphismes extérieurs non-twistés de A. Sa structure simpliciale en fait un modèle à la fois combinatoire et géométrique de U(A). Après avoir rappelé les outils nécessaires et la construction originale de K (Chapitre 1), on commence par établir des propriétés des complexes cubiques CAT(0) associés à A, et de certaines applications d’écrasement d’hyperplans (Chapitre 2). Ceci nous permet au Chapitre 3 de proposer une reformulation géométrique et simplifiée de la construction de K. On utilise ce point de vue au Chapitre 4 pour exhiber des outre-espaces relatifs, qui classifient certains sous-groupes de McCool de U(A), apparaissant naturellement comme des stabilisateurs pour l’action de U(A) sur les classes de conjugaison de A. Enfin, au Chapitre 5, on étudie les symétries de K en tant que complexe simplicial. On propose des conditions suffisantes pour que ces symétries proviennent toutes de l’action de U(A), et on caractérise les cas où K a une structure de produit direct, en s’appuyant sur de nombreux exemples.
|
|
Informatique
/ 23-06-2025
Marotta Amélie
Voir le résumé
Voir le résumé
Lors de la conception d'un objet électronique, la sécurité est à prendre en considération. En effet, les sources de vulnérabilité peuvent être multiples, ainsi que les moyens de les exploiter. En particulier, nous nous intéressons à l'injection de fautes. Ces attaques consistent à perturber certains signaux d'un circuit (comme l'alimentation) afin de modifier son comportement. Que ce soit pour développer des contremesures ou des attaques efficaces, il est nécessaire de comprendre l'impact global des fautes sur un circuit intégré. L'injection de fautes électromagnétiques impacte plusieurs signaux à la fois, et donc son étude peut se révéler complexe. Cette thèse vise à étudier un effet en particulier des fautes électromagnétiques, les perturbations synchrones de l'horloge. Ce type de perturbation a été utilisé avec succès pour contourner des mesures de sécurité. Pourtant, une analyse de bout en bout n'a jamais été explorée. Dans un premier temps, nous explorons leur effet sur les bascules et leur échantillonnage, ce qui nous permet de déduire un nouveau modèle de faute. Dans un second temps, notre intérêt se porte sur l'effet des perturbations sur la microarchitecture. Nos buts sont multiples : faire le lien entre les paramètres d'injection et les différents effets observés, identifier les parties vulnérables du processeur, faire le lien avec le modèle de faute bas niveau. Ces deux contributions permettent d'améliorer la compréhension des effets de l'injection de fautes, notamment électromagnétiques, à divers niveaux d'abstraction.
|
|
Signal, image, vision
/ 20-06-2025
Joly Clément
Voir le résumé
Voir le résumé
L’Angioplastie Percutanée Transluminale (PTA) est une intervention endovasculaire largement pratiquée pour le traitement des sténoses. L’optimisation des résultats de la PTA demeure un enjeu clinique. La méthode par éléments finis constitue un outil de modélisation puissant pour prédire les résultats d’une PTA, mais la simulation des déformations permanentes post-PTA des sténoses sévères dans des artères de gros calibre reste un problème ouvert. L’objectif de ces travaux de thèse est de développer un modèle paramétrique de PTA capable de répondre à cette problématique. Une première analyse a permis de montrer les limites d’un solveur implicite à résoudre un modèle de PTA sur un fort degré de sténose, caractéristique d’une nécessité d’intervention chirurgicale. Une nouvelle méthode de modélisation du ballon d’angioplastie a ensuite été proposée. Elle s’appuie sur la Modélisation de Ballons Successifs (MBS) pour répondre aux contraintes numériques associées aux déformations importantes d’un ballon modélisé sans pli. Associé avec un modèle paramétrique de sténose capable de modéliser plusieurs calibres d’artère, ce modèle de PTA a permis d’estimer les déformations permanentes sur des cas génériques de sténoses sévères dans des artères de gros calibre. L’intérêt de l’approche de modélisation proposée a pu être illustré sur un cas patient présentant une région sténosée complexe par assemblage de plusieurs configurations du modèle. Ces travaux de thèses introduisent une méthodologie versatile capable d’estimer les déformations permanentes post-PTA pour améliorer la préparation de la procédure sur des cas patients complexes.
|
|
Mathématiques et leurs interactions
/ 20-06-2025
Leloup Guillaume
Voir le résumé
Voir le résumé
Ce manuscrit étudie des équations stationnaires permettant de modéliser des systèmes de turbulence dérivés des équations de Navier-Stokes, sur un domaine borné régulier. La principale difficulté provient de la forme particulière de la viscosité, qui s’annule au voisinage du bord. Des méthodes de compacité issues de l’analyse fonctionnelle permettent de prouver l’existence de solutions faibles, ce qui constitue une approche prometteuse de la situation physique, mais ne permet pas encore de la résoudre entièrement. Dans la suite, on énonce quelques résultats liés à la résolution d’équations simplifiées obtenues à partir du modèle de turbulence k − ε, en adaptant certains résultats de ces dernières décennies à notre cadre particulier.
|
|
Photonique
/ 19-06-2025
Lefrère Grégory
Voir le résumé
Voir le résumé
La propagation d’une onde de choc constitue un indicateur essentiel du comportement d’un matériau sous choc. Sa mesure nécessite à la fois la transparence du matériau et une résolution spatio-temporelle suffisante, typiquement de l’ordre du micromètre et de la nanoseconde selon les conditions de choc. À ce jour, aucun système ne combine ces deux caractéristiques. Les systèmes optiques actuels, opérant dans le visible ou le proche infrarouge, offrent la résolution requise, mais uniquement pour des mesures de surface, en raison de la faible transparence des matériaux à ces longueurs d’onde. À l’inverse, les radio-interféromètres pénètrent les matériaux mais leur résolution est limitée par la longueur d’onde (3,19 mm). Après un état de l’art sur les vélocimètres et la transparence des matériaux, nous proposons une architecture fonctionnant en continu dans le moyen infrarouge (MIR), entre 8 et 12 µm. Cette gamme de longueur d'onde offre un compromis entre résolution et pénétration. Le vélocimètre, basé sur un laser accordable, a été caractérisé dans plusieurs configurations. Des essais en laboratoire à basse et moyenne vitesse ont confirmé sa capacité à traverser les matériaux. Des expériences en conditions extrêmes ont ensuite permis de mesurer des vitesses élevées (>4000 m/s) sur des matériaux inertes puis énergétiques. Les résultats, comparés à des simulations par éléments finis, démontrent le potentiel du dispositif pour la mesure continue des vitesses de choc et de détonation.
|
|
Électronique
/ 06-06-2025
Defives Marie
Voir le résumé
Voir le résumé
Les communications sans fil de nouvelle génération exigent des architectures et des systèmes d'antennes innovants pour atteindre des débits de données plus élevés, une faible consommation d'énergie et une couverture radio plus large. L'exploitation de la bande THz s'est avérée être le meilleur choix pour surmonter ces défis. Avec une bande passante intrinsèque de plusieurs dizaines de GHz, elle se présente comme le candidat le plus adapté. De plus, le passage des normes de télécommunications à des fréquences plus élevées permet d'atténuer la saturation du spectre qui se produit jusqu'à la gamme des ondes millimétriques. D'autre part, l'exploitation de fréquences élevées dois faire face aux importantes pertes de propagation dans l'espace libre, ce qui rend les liaisons radio en champ proche plus exploitables. Par conséquent, les réseaux sans fil du futur fonctionneront probablement dans la région de rayonnement du champ proche. L'ensemble de ces facteurs pousse à la nécessité d'antennes efficaces large bande et focalisant en champ proche. À ces fréquences, les caractéristiques de conception sont très petites, et les contraintes de fabrication limitent souvent les performances réalisables, nécessitant l'utilisation de technologies plus coûteuses et à haute résolution. Les réseau transmetteurs (Transmitarrays, TAs) ont émergé comme une solution particulièrement prometteuse et polyvalente pour la formation de faisceaux en trois dimensions. Ils résolvent efficacement la limitation en bande passante, inhérente aux antennes résonnantes et parent efficacement les systèmes d’alimentation dissipatif que l'on trouve couramment dans les réseaux phasés. De plus, les TAs peuvent être facilement intégrés dans des processus de fabrication planaire, tels que les cartes de circuits imprimés standard (PCB). Ces caractéristiques permettent le développement d'antennes à faible coût et à profil réduit offrant des capacités impressionnantes de mise en forme des faisceaux en champ proche dans la région sub-THz. Cette thèse présente, pour la première fois, un cadre mathématique complet conçu pour la détermination précise du rayonnement en champ proche émis par un transmetteur. Cet outil numérique innovant permet de prédire les amplitudes du champ électrique en tenant compte de toutes les caractéristiques des blocs élémentaires du système. Cela inclut la puissance injectée, le gain de la source focale, la distance entre la source focale et chaque cellule unitaire, ainsi que la directivité des cellules unitaires et leurs coefficients de transmission en phase et en amplitude. Une variété de schémas de focalisation en champ proche est obtenue, permettant de contrôler à la fois les distributions focales et longitudinales, qu'elles soient sur ou hors de l'axe de propagation. Les TAs correspondants sont fabriqués à l'aide d'un processus PCB standard et caractérisés expérimentalement à 300 GHz dans une grande variété de scénarios. Les résultats empiriques valident l'approche d'analyse et de conception proposée.
|
|
Signal, image, vision
/ 30-05-2025
Cubero Gutiérrez Lucía
Voir le résumé
Voir le résumé
Un défi majeur de la radiothérapie des cancers de la tête et du cou réside dans l’évaluation et la prédiction précises des toxicités liées au traitement, en particulier la dysphagie et la xérostomie. Cette thèse répond à ce défi en améliorant la segmentation des organes à risque (OAR), en développant des méthodes objectives d’évaluation de la toxicité et en affinant les modèles dose-réponse. Un cadre basé sur l’apprentissage profond a été développé pour la segmentation automatique de 25 organes à risque sur des images CT et CBCT, démontrant de bonnes performances et une acceptabilité clinique. En s’appuyant sur cette base de segmentation, la thèse introduit de nouveaux outils pour l’évaluation des toxicités. Nous présentons tout d’abord une chaîne d’analyse entièrement automatisée des études vidéofluoroscopiques de la déglutition, permettant une évaluation quantitative et objective de la dysphagie. Pour la xérostomie, nous proposons une approche de modélisation dose-réponse à l’échelle voxel, afin de dépasser les métriques globales traditionnelles et d’identifier des sous-régions associées aux symptômes. Ensemble, ces contributions méthodologiques posent les bases de stratégies de radiothérapie plus personnalisées et attentives aux toxicités pour les patients atteints de cancers de la tête et du cou.
|
|
Informatique
/ 28-05-2025
Randrianaina Georges Aaron
Voir le résumé
Voir le résumé
La compilation de logiciels au sein de systèmes hautement configurables est devenue une tâche toujours plus complexe et coûteuse en ressources, d’autant que les pratiques de développement modernes s’appuient fortement sur l’intégration continue (CI). La prolifération des options de configuration, des directives de compilation conditionnelle aux dépendances externes, fait qu’assurer la compilation correcte et efficace des différentes variantes d’un logiciel représente un défi majeur. Les recompilations complètes demeurent la norme, mais elles se révèlent souvent inefficaces lorsqu’elles sont répétées pour de nombreuses configurations. Cette thèse examine la faisabilité, les avantages et les limites de la compilation incrémentale des configurations logicielles, une stratégie qui réutilise les artefacts de compilations antérieures pour accélérer les suivantes. Au moyen d’études empiriques menées sur des systèmes réels (Linux, Busybox, Toybox, x264, xz, curl, sqlite, et plus…), ce travail montre que la compilation incrémentale peut réduire significativement les temps de compilation, avec des gains pouvant atteindre 66 %. Deux applications concrètes sont explorées : la réduction du coût global de la compilation d’ensembles fixes de configurations et l’accélération de l’exploration de grands espaces de configuration. Nous identifions toutefois plusieurs défis, notamment le risque de compilations incorrectes et la difficulté de garantir la reproductibilité lorsqu’on réutilise des artefacts. Pour y remédier, nous proposons des méthodes permettant de détecter et de corriger les configurations non reproductibles, ainsi que PyroBuildS, une nouvelle technique qui contrôle la diversité des configurations à l’aide de listes d’exclusion et d’opérateurs de variation. PyroBuildS offre des compilations incrémentales à la fois efficaces et reproductibles, réduisant les temps de compilation de 16 % à 22 % sur plusieurs systèmes configurables. Cette thèse est la toute première à étudier la compilation incrémental de configurations logicielles. Elle ouvre de nouvelles perspectives sur la manière de rendre les systèmes de build plus efficaces et plus fiables face à la variabilité des configurations, et elle trace des pistes prometteuses pour la recherche et les outils en génie logiciel.
|
|
Informatique
/ 27-05-2025
La Fuente Léo de
Voir le résumé
Voir le résumé
Le calcul proche mémoire constitue une approche prometteuse pour atteindre un objectif de faible consommation énergétique dans les systèmes embarqués. Ce paradigme limite l’énergie dépensée lors des transferts de données entre le processeur et la mémoire. Toutefois, la gestion des instructions de calcul induit une part de consommation supplémentaire. Cette thèse propose une approche visant à réduire la consommation énergétique à l’aide d’un séquenceur capable de générer les instructions de calcul en mémoire. L’intégration de ce séquenceur dans l’unité de contrôle d’une architecture de calcul proche mémoire existante adaptée aux systèmes embarqués permet d’optimiser l’exécution des opérations tout en limitant les transferts de données, entraînant ainsi une réduction significative de la consommation énergétique. Un circuit, modélisé et simulé après synthèse, placement et routage, permet d’obtenir des estimations réalistes de la consommation. Ce circuit intègre un séquenceur dédié à la multiplication matricielle, réduisant le coût d’exécution de cette opération dans un contexte de calcul proche mémoire. De plus, des estimations ont été réalisées pour évaluer l’impact de cette approche sur d’autres opérations telles que la transformée de Fourier rapide (TFR) et la transformée en cosinus discrète (TCD).
|
|