Tri :
Date
Titre
Auteur
|
|
Mathématiques et leurs interactions
/ 26-06-2025
Abgrall Adrien
Voir le résumé
Voir le résumé
Cette thèse étudie la géométrie de l’outre-espace non-twisté associé à un groupe d’Artin à angles droits A, construit par Charney, Stambaugh et Vogtmann en 2017. Il s’agit d’un espace classifiant K pour un sous-groupe d’indice fini du groupe U(A) des automorphismes extérieurs non-twistés de A. Sa structure simpliciale en fait un modèle à la fois combinatoire et géométrique de U(A). Après avoir rappelé les outils nécessaires et la construction originale de K (Chapitre 1), on commence par établir des propriétés des complexes cubiques CAT(0) associés à A, et de certaines applications d’écrasement d’hyperplans (Chapitre 2). Ceci nous permet au Chapitre 3 de proposer une reformulation géométrique et simplifiée de la construction de K. On utilise ce point de vue au Chapitre 4 pour exhiber des outre-espaces relatifs, qui classifient certains sous-groupes de McCool de U(A), apparaissant naturellement comme des stabilisateurs pour l’action de U(A) sur les classes de conjugaison de A. Enfin, au Chapitre 5, on étudie les symétries de K en tant que complexe simplicial. On propose des conditions suffisantes pour que ces symétries proviennent toutes de l’action de U(A), et on caractérise les cas où K a une structure de produit direct, en s’appuyant sur de nombreux exemples.
|
|
Signal, image, vision
/ 20-06-2025
Joly Clément
Voir le résumé
Voir le résumé
L’Angioplastie Percutanée Transluminale (PTA) est une intervention endovasculaire largement pratiquée pour le traitement des sténoses. L’optimisation des résultats de la PTA demeure un enjeu clinique. La méthode par éléments finis constitue un outil de modélisation puissant pour prédire les résultats d’une PTA, mais la simulation des déformations permanentes post-PTA des sténoses sévères dans des artères de gros calibre reste un problème ouvert. L’objectif de ces travaux de thèse est de développer un modèle paramétrique de PTA capable de répondre à cette problématique. Une première analyse a permis de montrer les limites d’un solveur implicite à résoudre un modèle de PTA sur un fort degré de sténose, caractéristique d’une nécessité d’intervention chirurgicale. Une nouvelle méthode de modélisation du ballon d’angioplastie a ensuite été proposée. Elle s’appuie sur la Modélisation de Ballons Successifs (MBS) pour répondre aux contraintes numériques associées aux déformations importantes d’un ballon modélisé sans pli. Associé avec un modèle paramétrique de sténose capable de modéliser plusieurs calibres d’artère, ce modèle de PTA a permis d’estimer les déformations permanentes sur des cas génériques de sténoses sévères dans des artères de gros calibre. L’intérêt de l’approche de modélisation proposée a pu être illustré sur un cas patient présentant une région sténosée complexe par assemblage de plusieurs configurations du modèle. Ces travaux de thèses introduisent une méthodologie versatile capable d’estimer les déformations permanentes post-PTA pour améliorer la préparation de la procédure sur des cas patients complexes.
|
|
Mathématiques et leurs interactions
/ 20-06-2025
Leloup Guillaume
Voir le résumé
Voir le résumé
Ce manuscrit étudie des équations stationnaires permettant de modéliser des systèmes de turbulence dérivés des équations de Navier-Stokes, sur un domaine borné régulier. La principale difficulté provient de la forme particulière de la viscosité, qui s’annule au voisinage du bord. Des méthodes de compacité issues de l’analyse fonctionnelle permettent de prouver l’existence de solutions faibles, ce qui constitue une approche prometteuse de la situation physique, mais ne permet pas encore de la résoudre entièrement. Dans la suite, on énonce quelques résultats liés à la résolution d’équations simplifiées obtenues à partir du modèle de turbulence k − ε, en adaptant certains résultats de ces dernières décennies à notre cadre particulier.
|
|
Électronique
/ 06-06-2025
Defives Marie
Voir le résumé
Voir le résumé
Les communications sans fil de nouvelle génération exigent des architectures et des systèmes d'antennes innovants pour atteindre des débits de données plus élevés, une faible consommation d'énergie et une couverture radio plus large. L'exploitation de la bande THz s'est avérée être le meilleur choix pour surmonter ces défis. Avec une bande passante intrinsèque de plusieurs dizaines de GHz, elle se présente comme le candidat le plus adapté. De plus, le passage des normes de télécommunications à des fréquences plus élevées permet d'atténuer la saturation du spectre qui se produit jusqu'à la gamme des ondes millimétriques. D'autre part, l'exploitation de fréquences élevées dois faire face aux importantes pertes de propagation dans l'espace libre, ce qui rend les liaisons radio en champ proche plus exploitables. Par conséquent, les réseaux sans fil du futur fonctionneront probablement dans la région de rayonnement du champ proche. L'ensemble de ces facteurs pousse à la nécessité d'antennes efficaces large bande et focalisant en champ proche. À ces fréquences, les caractéristiques de conception sont très petites, et les contraintes de fabrication limitent souvent les performances réalisables, nécessitant l'utilisation de technologies plus coûteuses et à haute résolution. Les réseau transmetteurs (Transmitarrays, TAs) ont émergé comme une solution particulièrement prometteuse et polyvalente pour la formation de faisceaux en trois dimensions. Ils résolvent efficacement la limitation en bande passante, inhérente aux antennes résonnantes et parent efficacement les systèmes d’alimentation dissipatif que l'on trouve couramment dans les réseaux phasés. De plus, les TAs peuvent être facilement intégrés dans des processus de fabrication planaire, tels que les cartes de circuits imprimés standard (PCB). Ces caractéristiques permettent le développement d'antennes à faible coût et à profil réduit offrant des capacités impressionnantes de mise en forme des faisceaux en champ proche dans la région sub-THz. Cette thèse présente, pour la première fois, un cadre mathématique complet conçu pour la détermination précise du rayonnement en champ proche émis par un transmetteur. Cet outil numérique innovant permet de prédire les amplitudes du champ électrique en tenant compte de toutes les caractéristiques des blocs élémentaires du système. Cela inclut la puissance injectée, le gain de la source focale, la distance entre la source focale et chaque cellule unitaire, ainsi que la directivité des cellules unitaires et leurs coefficients de transmission en phase et en amplitude. Une variété de schémas de focalisation en champ proche est obtenue, permettant de contrôler à la fois les distributions focales et longitudinales, qu'elles soient sur ou hors de l'axe de propagation. Les TAs correspondants sont fabriqués à l'aide d'un processus PCB standard et caractérisés expérimentalement à 300 GHz dans une grande variété de scénarios. Les résultats empiriques valident l'approche d'analyse et de conception proposée.
|
|
Signal, image, vision
/ 30-05-2025
Cubero Gutiérrez Lucía
Voir le résumé
Voir le résumé
Un défi majeur de la radiothérapie des cancers de la tête et du cou réside dans l’évaluation et la prédiction précises des toxicités liées au traitement, en particulier la dysphagie et la xérostomie. Cette thèse répond à ce défi en améliorant la segmentation des organes à risque (OAR), en développant des méthodes objectives d’évaluation de la toxicité et en affinant les modèles dose-réponse. Un cadre basé sur l’apprentissage profond a été développé pour la segmentation automatique de 25 organes à risque sur des images CT et CBCT, démontrant de bonnes performances et une acceptabilité clinique. En s’appuyant sur cette base de segmentation, la thèse introduit de nouveaux outils pour l’évaluation des toxicités. Nous présentons tout d’abord une chaîne d’analyse entièrement automatisée des études vidéofluoroscopiques de la déglutition, permettant une évaluation quantitative et objective de la dysphagie. Pour la xérostomie, nous proposons une approche de modélisation dose-réponse à l’échelle voxel, afin de dépasser les métriques globales traditionnelles et d’identifier des sous-régions associées aux symptômes. Ensemble, ces contributions méthodologiques posent les bases de stratégies de radiothérapie plus personnalisées et attentives aux toxicités pour les patients atteints de cancers de la tête et du cou.
|
|
Informatique
/ 28-05-2025
Randrianaina Georges Aaron
Voir le résumé
Voir le résumé
La compilation de logiciels au sein de systèmes hautement configurables est devenue une tâche toujours plus complexe et coûteuse en ressources, d’autant que les pratiques de développement modernes s’appuient fortement sur l’intégration continue (CI). La prolifération des options de configuration, des directives de compilation conditionnelle aux dépendances externes, fait qu’assurer la compilation correcte et efficace des différentes variantes d’un logiciel représente un défi majeur. Les recompilations complètes demeurent la norme, mais elles se révèlent souvent inefficaces lorsqu’elles sont répétées pour de nombreuses configurations. Cette thèse examine la faisabilité, les avantages et les limites de la compilation incrémentale des configurations logicielles, une stratégie qui réutilise les artefacts de compilations antérieures pour accélérer les suivantes. Au moyen d’études empiriques menées sur des systèmes réels (Linux, Busybox, Toybox, x264, xz, curl, sqlite, et plus…), ce travail montre que la compilation incrémentale peut réduire significativement les temps de compilation, avec des gains pouvant atteindre 66 %. Deux applications concrètes sont explorées : la réduction du coût global de la compilation d’ensembles fixes de configurations et l’accélération de l’exploration de grands espaces de configuration. Nous identifions toutefois plusieurs défis, notamment le risque de compilations incorrectes et la difficulté de garantir la reproductibilité lorsqu’on réutilise des artefacts. Pour y remédier, nous proposons des méthodes permettant de détecter et de corriger les configurations non reproductibles, ainsi que PyroBuildS, une nouvelle technique qui contrôle la diversité des configurations à l’aide de listes d’exclusion et d’opérateurs de variation. PyroBuildS offre des compilations incrémentales à la fois efficaces et reproductibles, réduisant les temps de compilation de 16 % à 22 % sur plusieurs systèmes configurables. Cette thèse est la toute première à étudier la compilation incrémental de configurations logicielles. Elle ouvre de nouvelles perspectives sur la manière de rendre les systèmes de build plus efficaces et plus fiables face à la variabilité des configurations, et elle trace des pistes prometteuses pour la recherche et les outils en génie logiciel.
|
|
Informatique
/ 27-05-2025
La Fuente Léo de
Voir le résumé
Voir le résumé
Le calcul proche mémoire constitue une approche prometteuse pour atteindre un objectif de faible consommation énergétique dans les systèmes embarqués. Ce paradigme limite l’énergie dépensée lors des transferts de données entre le processeur et la mémoire. Toutefois, la gestion des instructions de calcul induit une part de consommation supplémentaire. Cette thèse propose une approche visant à réduire la consommation énergétique à l’aide d’un séquenceur capable de générer les instructions de calcul en mémoire. L’intégration de ce séquenceur dans l’unité de contrôle d’une architecture de calcul proche mémoire existante adaptée aux systèmes embarqués permet d’optimiser l’exécution des opérations tout en limitant les transferts de données, entraînant ainsi une réduction significative de la consommation énergétique. Un circuit, modélisé et simulé après synthèse, placement et routage, permet d’obtenir des estimations réalistes de la consommation. Ce circuit intègre un séquenceur dédié à la multiplication matricielle, réduisant le coût d’exécution de cette opération dans un contexte de calcul proche mémoire. De plus, des estimations ont été réalisées pour évaluer l’impact de cette approche sur d’autres opérations telles que la transformée de Fourier rapide (TFR) et la transformée en cosinus discrète (TCD).
|
|
Informatique
/ 23-05-2025
Kirchner Paul
Voir le résumé
Voir le résumé
La cryptanalyse de schémas de cryptographie à clé publique repose sur un ensemble de techniques algorithmiques et algébriques en théorie des nombres. Dans une première partie de cette thèse, nous présentons des améliorations de l’algorithme LLL, dû à Lenstra, Lenstra et Lovasz pour réduire un réseau euclidien, c’est-à-dire réduire la norme et orthogonaliser le plus possible les vecteurs de la base. Nous montrons aussi comment utiliser cet algorithme pour réduire des réseaux modules en rang 2 dans un corps de nombres cyclotomique ayant des sous-corps. En effet, certains schémas comme NTRU ou Falcon, dont la sécurité repose sur ce problème difficile, ont été proposés en cryptographie post-quantique et pour du chiffrement homomorphe. Nous améliorons aussi les techniques d’algèbre linéaire creuse et proposons de meilleurs algorithmes lorsque la matrice est à diagonale dominante. Ces avancées nous permettent de réaliser de nouveaux records de calculs de corps de nombres : nombre de classes, générateurs du groupe des unités, générateur d’un idéal principal. Dans une seconde partie, nous étudions différents problèmes classiques en théorie des nombres : nous améliorons différents algorithmes pour tester la primalité d’un entier et en particulier, le test cyclotomique initialement proposé par Adleman et dernièrement développé par Mihailescu. Puis, nous étudions différents algorithmes dans un modèle dit de l’anneau en boîte noire, c’est-à-dire que nous étudions le nombre d’additions et de multiplications dans l’anneau, sans nous intéresser à la façon de représenter et de faire les calculs dans cet anneau. Ceci nous permet dans le dernier chapitre, d’instancier ces algorithmes en fonction de différents anneaux pour proposer des algorithmes efficaces en cryptanalyse. Ce faisant, nous sommes capables de distribuer plus facilement les calculs de tout l’algorithme, alors que les algorithmes dit de calcul d’indice utilisent une étape d’algèbre linéaire qu’il est difficile de paralléliser.
|
|
Signal, image, vision
/ 21-05-2025
Freitas Davi Rabbouni de Carvalho
Voir le résumé
Voir le résumé
Cette thèse donne un aperçu de la fonction plénoptique et de la manière dont elle est liée aux contenus volumétriques, par le biais de représentations de scènes plénoptiques. Elle passe en revue les méthodes existantes qui introduisent cette capacité de manière explicite et implicite, sous la forme d’un nuage de points plénoptique (PPC) et de champs de radiance (RF), respectivement. Ces méthodes sont présentées du point de vue des défis qu’elles posent en termes de praticité pour les applications de diffusion en continu de contenu interactif, à savoir la taille et la vitesse. Dans un premier temps, nous avons intégré la capacité plénoptique pour le codeur MPEG basé sur la géométrie (G-PCC) en compressant les PPC à l’aide d’une combinaison des transformées linéaires sur le vecteur de couleur des différents points de vue de la caméra combinées aux codeurs d’attributs prédictifs du G-PCC. Nous abordons ensuite les inconvénients liés à la taille des implémentations de rendu en temps réel des méthodes basées sur le NeRF, en introduisant un pipeline de compression dans le modèle PlenOctrees. Ensuite, nous introduisons une méthode pour générer systématiquement des PPC et les comparer directement aux solutions RF avec des mesures conventionnelles basées sur le rendu. Enfin, nous tirons parti de la géométrie sous-jacente des modèles RF pour orienter leur élagage en vue d’une compression plus efficace.
|
|
Informatique
/ 15-05-2025
Kebaili Zohra Kaouter
Voir le résumé
Voir le résumé
Les systèmes logiciels tendent a devenir de plus en plus complexes, ce qui engendre des coûts de maintenance élevés qui dépassent souvent les coûts de développement initiaux. L’ingénierie dirigée par les modèles (IDM) s’est imposée comme une approche incontournable pour simplifier le développement et accroître la productivité. Elle repose sur l’utilisation de métamodèles pour générer divers artefacts, y compris du code, que les développeurs améliorent ensuite avec du code additionnel pour développer les différents outils linguistiques nécessaires pour un langage logiciel, par exemple un éditeur, un vérificateur, un compilateur, des couches d’accès aux données, etc. Des infrastructures logicielles tels que Eclipse Modeling Framework (EMF) illustrent ce flux de travail, en générant des API Java qui sont ensuite enrichies a des fins de validation, de débogage et de simulation. L’un des principaux enjeux de l’EDM est l’évolution du métamodèle et son impact sur les artefacts connexes. Dans cette thèse, nous nous concentrons sur l’artefact du code et sa co-évolution avec le métamodèle en évolution. En outre, nous visons a vérifier l’exactitude comportementale de la co-évolution du métamodèle et du code. Enfin, avec l’émergence des LLM, nous explorons leur utilité pour le problème de co-évolution du métamodèle et du code. Cette thèse répond a ces problèmes en : 1) en proposant une nouvelle approche de co-évolution entièrement automatisée des métamodèles et du code. Cette approche associe les erreurs de compilation a des patrons d’utilisation des éléments du métamodèle afin de sélectionner des résolutions appropriées, puis 2) en proposant une approche automatique pour vérifier que la co-évolution du code entre différentes versions n’a pas impacte son comportement lorsque son métamodèle évolue. métamodèle évolue. Cette approche s’appuie sur l’isolation d’un sous-ensembles des tests impactes avant et après la co-évolution. du code. 3) La dernière contribution concerne l’exploration de la capacité des LLM a proposer des co-évolutions correctes du code lorsque le métamodèle évolue. Cette approche est basée sur l’ingénierie des prompts, ou nous concevons et générons des prompts en langage naturel pour faire coévoluer au mieux le code impacte par l’évolution du métamodèle. Les trois contributions ont été évaluées sur des projets EMF d’OCL, Modisco et Papyrus. L’évaluation montre que notre approche automatique de co-évolution du code résout 100% des erreurs, avec 82% de précision et 81% de rappel, réduisant de manière significative l’effort manuel. De plus, notre deuxième contribution pour la vérification de la correction comportementale peut tracer et isoler avec succès les tests impactes par les changements de métamodèle représentant 5% des tests. Ensuite, après l’exécution des tests traces, la fluctuation du nombre de tests réussis, échoués ou erronés indique si la co-évolution du code est correcte ou non. L’utilisation de cette approche nous a permis de gagner 88% sur le nombre de tests total et 84% sur le temps d’exécution. Enfin, lors de l’évaluation de la capacité de ChatGPT dans la co-évolution de code, nous avons varie la valeur de la température, et la structure des prompts données. Nous avons constate que des températures plus basses donnent de meilleurs résultats avec un taux de correction de correction de 88,7%. En ce qui concerne la structure de prompts, le fait d’inclure de l’information sur lien d’abstraction de l’erreur et la réclamer des réponses alternatives améliorent les coévolutions proposées.
|
|