Recherche avancée
Toutes les thèses
Thèses de doctorat
Thèses d'exercice (médecine, santé, pharmacie)
Toutes les thèses > Nouveautés en fr
  • Nouveautés
  • Par date
  • Par auteur
Toutes les thèses  -> Recherche de nouveautés dans les ressources
Recherche de documents datant de moins de jours
  • 36 ressources ont été trouvées. Voici les résultats 1 à 10
  |< << Page précédente 1 2 3 4 Page suivante >> >| documents par page
Tri :   Date Titre Auteur

Sélection de cellule et allocation de ressources dans les réseaux avec backhaul sans fil


Informatique / 09-07-2025
Ghodhbane Chourouk
Voir le résumé
Voir le résumé
Pour faire face à la demande croissante de trafic des utilisateurs mobiles et améliorer la couverture, une densification des stations de base est nécessaire. La technologie Integrated Access and Backhaul (IAB) a été proposée pour faciliter cette densification en définissant des nœuds IAB qui agissent comme des stations de base mais sont connectés sans-fil au réseau fixe. Toutefois, l’IAB introduit des défis techniques complexes, tels que : i) le partage de la bande passante entre l’accès et le backhaul, et ii) la planification qui doit être conforme à la contrainte de semi-duplex. Dans cette thèse, nous nous concentrons sur les politiques de sélection de cellule et d’allocation de ressources pour les réseaux IAB. Pour la sélection de cellule, nous proposons une politique permettant à chaque utilisateur de s’associer à un nœud IAB qui optimise la consommation de ressources tout en respectant la capacité de chaque cellule, afin de maximiser la capacité du réseau et d’assurer un bon équilibrage de charge. Concernant l’allocation des ressources, deux politiques sont proposées. La première, gérée par la station de base principale, permet une répartition dynamique des ressources sur la bande passante partagée entre les différents nœuds IAB, avec une gestion optimisée des interférences. Une fois les ressources allouées à chaque cellule, une seconde politique entre en jeu pour permettre à chaque nœud IAB de distribuer ses ressources entre ses utilisateurs en fonction de leurs besoins en matière de Qualité de Service (QoS), principalement en termes de latence. Ces politiques visent à améliorer la capacité du réseau et à offrir un haut niveau de satisfaction aux utilisateurs, en tenant compte des conditions du réseau et des exigences des utilisateurs.

Caractérisation numérique des quotients d'espaces projectifs complexes


Mathématiques et leurs interactions / 08-07-2025
Dailly Louis
Voir le résumé
Voir le résumé
Cette thèse est consacrée à l'étude du problème de l'uniformisation dans le cadre singulier. Plus précisément, on donne une caractérisation des paires singulières obtenues comme quotients d'espaces projectifs complexes. Ce résultat généralise les travaux de Greb, Kebekus et Peternell qui établissent une telle caractérisation pour les variétés singulières. Après avoir rappelé le formalisme des paires et la théorie de l'uniformisation dans ce cadre, nous donnons un critère qui permet d'assurer que le revêtement universel d'une paire est effectivement lisse. Celui-ci repose sur un résultat analogue au théorème de Zariski--Lipman pour les paires orbifoldes, et des considérations sur la platitude dans ce contexte. Ensuite, on étudie la bonne définition d'extension canonique d'une paire singulière. On introduit la notion d'extension canonique adaptée, qui mime la construction du faisceau des différentielles adaptées introduit par Miyaoka. On montre que ces faisceaux peuvent être interprétés comme des images inverses de faisceaux orbifolds. Ceci permet notamment de calculer effectivement les classes de Chern orbifoldes de ces objets.

Géométrie de l'outre-espace des groupes d'Artin à angles droits


Mathématiques et leurs interactions / 26-06-2025
Abgrall Adrien
Voir le résumé
Voir le résumé
Cette thèse étudie la géométrie de l’outre-espace non-twisté associé à un groupe d’Artin à angles droits A, construit par Charney, Stambaugh et Vogtmann en 2017. Il s’agit d’un espace classifiant K pour un sous-groupe d’indice fini du groupe U(A) des automorphismes extérieurs non-twistés de A. Sa structure simpliciale en fait un modèle à la fois combinatoire et géométrique de U(A). Après avoir rappelé les outils nécessaires et la construction originale de K (Chapitre 1), on commence par établir des propriétés des complexes cubiques CAT(0) associés à A, et de certaines applications d’écrasement d’hyperplans (Chapitre 2). Ceci nous permet au Chapitre 3 de proposer une reformulation géométrique et simplifiée de la construction de K. On utilise ce point de vue au Chapitre 4 pour exhiber des outre-espaces relatifs, qui classifient certains sous-groupes de McCool de U(A), apparaissant naturellement comme des stabilisateurs pour l’action de U(A) sur les classes de conjugaison de A. Enfin, au Chapitre 5, on étudie les symétries de K en tant que complexe simplicial. On propose des conditions suffisantes pour que ces symétries proviennent toutes de l’action de U(A), et on caractérise les cas où K a une structure de produit direct, en s’appuyant sur de nombreux exemples.

Effects of synchronous clock glitch on the security of integrated circuits


Informatique / 23-06-2025
Marotta Amélie
Voir le résumé
Voir le résumé
Lors de la conception d'un objet électronique, la sécurité est à prendre en considération. En effet, les sources de vulnérabilité peuvent être multiples, ainsi que les moyens de les exploiter. En particulier, nous nous intéressons à l'injection de fautes. Ces attaques consistent à perturber certains signaux d'un circuit (comme l'alimentation) afin de modifier son comportement. Que ce soit pour développer des contremesures ou des attaques efficaces, il est nécessaire de comprendre l'impact global des fautes sur un circuit intégré. L'injection de fautes électromagnétiques impacte plusieurs signaux à la fois, et donc son étude peut se révéler complexe. Cette thèse vise à étudier un effet en particulier des fautes électromagnétiques, les perturbations synchrones de l'horloge. Ce type de perturbation a été utilisé avec succès pour contourner des mesures de sécurité. Pourtant, une analyse de bout en bout n'a jamais été explorée. Dans un premier temps, nous explorons leur effet sur les bascules et leur échantillonnage, ce qui nous permet de déduire un nouveau modèle de faute. Dans un second temps, notre intérêt se porte sur l'effet des perturbations sur la microarchitecture. Nos buts sont multiples : faire le lien entre les paramètres d'injection et les différents effets observés, identifier les parties vulnérables du processeur, faire le lien avec le modèle de faute bas niveau. Ces deux contributions permettent d'améliorer la compréhension des effets de l'injection de fautes, notamment électromagnétiques, à divers niveaux d'abstraction.

Simulation numérique paramétrique robuste de l'angioplastie percutanée transluminale pour des sténoses sévères d'artères de gros calibres


Signal, image, vision / 20-06-2025
Joly Clément
Voir le résumé
Voir le résumé
L’Angioplastie Percutanée Transluminale (PTA) est une intervention endovasculaire largement pratiquée pour le traitement des sténoses. L’optimisation des résultats de la PTA demeure un enjeu clinique. La méthode par éléments finis constitue un outil de modélisation puissant pour prédire les résultats d’une PTA, mais la simulation des déformations permanentes post-PTA des sténoses sévères dans des artères de gros calibre reste un problème ouvert. L’objectif de ces travaux de thèse est de développer un modèle paramétrique de PTA capable de répondre à cette problématique. Une première analyse a permis de montrer les limites d’un solveur implicite à résoudre un modèle de PTA sur un fort degré de sténose, caractéristique d’une nécessité d’intervention chirurgicale. Une nouvelle méthode de modélisation du ballon d’angioplastie a ensuite été proposée. Elle s’appuie sur la Modélisation de Ballons Successifs (MBS) pour répondre aux contraintes numériques associées aux déformations importantes d’un ballon modélisé sans pli. Associé avec un modèle paramétrique de sténose capable de modéliser plusieurs calibres d’artère, ce modèle de PTA a permis d’estimer les déformations permanentes sur des cas génériques de sténoses sévères dans des artères de gros calibre. L’intérêt de l’approche de modélisation proposée a pu être illustré sur un cas patient présentant une région sténosée complexe par assemblage de plusieurs configurations du modèle. Ces travaux de thèses introduisent une méthodologie versatile capable d’estimer les déformations permanentes post-PTA pour améliorer la préparation de la procédure sur des cas patients complexes.

Étude de systèmes de turbulence liés aux équations de Navier-Stokes


Mathématiques et leurs interactions / 20-06-2025
Leloup Guillaume
Voir le résumé
Voir le résumé
Ce manuscrit étudie des équations stationnaires permettant de modéliser des systèmes de turbulence dérivés des équations de Navier-Stokes, sur un domaine borné régulier. La principale difficulté provient de la forme particulière de la viscosité, qui s’annule au voisinage du bord. Des méthodes de compacité issues de l’analyse fonctionnelle permettent de prouver l’existence de solutions faibles, ce qui constitue une approche prometteuse de la situation physique, mais ne permet pas encore de la résoudre entièrement. Dans la suite, on énonce quelques résultats liés à la résolution d’équations simplifiées obtenues à partir du modèle de turbulence k − ε, en adaptant certains résultats de ces dernières décennies à notre cadre particulier.

Développement d’un système de vélocimétrie laser dans le moyen infrarouge


Photonique / 19-06-2025
Lefrère Grégory
Voir le résumé
Voir le résumé
La propagation d’une onde de choc constitue un indicateur essentiel du comportement d’un matériau sous choc. Sa mesure nécessite à la fois la transparence du matériau et une résolution spatio-temporelle suffisante, typiquement de l’ordre du micromètre et de la nanoseconde selon les conditions de choc. À ce jour, aucun système ne combine ces deux caractéristiques. Les systèmes optiques actuels, opérant dans le visible ou le proche infrarouge, offrent la résolution requise, mais uniquement pour des mesures de surface, en raison de la faible transparence des matériaux à ces longueurs d’onde. À l’inverse, les radio-interféromètres pénètrent les matériaux mais leur résolution est limitée par la longueur d’onde (3,19 mm). Après un état de l’art sur les vélocimètres et la transparence des matériaux, nous proposons une architecture fonctionnant en continu dans le moyen infrarouge (MIR), entre 8 et 12 µm. Cette gamme de longueur d'onde offre un compromis entre résolution et pénétration. Le vélocimètre, basé sur un laser accordable, a été caractérisé dans plusieurs configurations. Des essais en laboratoire à basse et moyenne vitesse ont confirmé sa capacité à traverser les matériaux. Des expériences en conditions extrêmes ont ensuite permis de mesurer des vitesses élevées (>4000 m/s) sur des matériaux inertes puis énergétiques. Les résultats, comparés à des simulations par éléments finis, démontrent le potentiel du dispositif pour la mesure continue des vitesses de choc et de détonation.

Focalisation en champ proche à des fréquences sub-THz à l’aide d’antennes à réseaux transmetteurs de faisceau fixe


Électronique / 06-06-2025
Defives Marie
Voir le résumé
Voir le résumé
Les communications sans fil de nouvelle génération exigent des architectures et des systèmes d'antennes innovants pour atteindre des débits de données plus élevés, une faible consommation d'énergie et une couverture radio plus large. L'exploitation de la bande THz s'est avérée être le meilleur choix pour surmonter ces défis. Avec une bande passante intrinsèque de plusieurs dizaines de GHz, elle se présente comme le candidat le plus adapté. De plus, le passage des normes de télécommunications à des fréquences plus élevées permet d'atténuer la saturation du spectre qui se produit jusqu'à la gamme des ondes millimétriques. D'autre part, l'exploitation de fréquences élevées dois faire face aux importantes pertes de propagation dans l'espace libre, ce qui rend les liaisons radio en champ proche plus exploitables. Par conséquent, les réseaux sans fil du futur fonctionneront probablement dans la région de rayonnement du champ proche. L'ensemble de ces facteurs pousse à la nécessité d'antennes efficaces large bande et focalisant en champ proche. À ces fréquences, les caractéristiques de conception sont très petites, et les contraintes de fabrication limitent souvent les performances réalisables, nécessitant l'utilisation de technologies plus coûteuses et à haute résolution. Les réseau transmetteurs (Transmitarrays, TAs) ont émergé comme une solution particulièrement prometteuse et polyvalente pour la formation de faisceaux en trois dimensions. Ils résolvent efficacement la limitation en bande passante, inhérente aux antennes résonnantes et parent efficacement les systèmes d’alimentation dissipatif que l'on trouve couramment dans les réseaux phasés. De plus, les TAs peuvent être facilement intégrés dans des processus de fabrication planaire, tels que les cartes de circuits imprimés standard (PCB). Ces caractéristiques permettent le développement d'antennes à faible coût et à profil réduit offrant des capacités impressionnantes de mise en forme des faisceaux en champ proche dans la région sub-THz. Cette thèse présente, pour la première fois, un cadre mathématique complet conçu pour la détermination précise du rayonnement en champ proche émis par un transmetteur. Cet outil numérique innovant permet de prédire les amplitudes du champ électrique en tenant compte de toutes les caractéristiques des blocs élémentaires du système. Cela inclut la puissance injectée, le gain de la source focale, la distance entre la source focale et chaque cellule unitaire, ainsi que la directivité des cellules unitaires et leurs coefficients de transmission en phase et en amplitude. Une variété de schémas de focalisation en champ proche est obtenue, permettant de contrôler à la fois les distributions focales et longitudinales, qu'elles soient sur ou hors de l'axe de propagation. Les TAs correspondants sont fabriqués à l'aide d'un processus PCB standard et caractérisés expérimentalement à 300 GHz dans une grande variété de scénarios. Les résultats empiriques valident l'approche d'analyse et de conception proposée.

Supporting metamodel and code co-evolution


Informatique / 15-05-2025
Kebaili Zohra Kaouter
Voir le résumé
Voir le résumé
Les systèmes logiciels tendent a devenir de plus en plus complexes, ce qui engendre des coûts de maintenance élevés qui dépassent souvent les coûts de développement initiaux. L’ingénierie dirigée par les modèles (IDM) s’est imposée comme une approche incontournable pour simplifier le développement et accroître la productivité. Elle repose sur l’utilisation de métamodèles pour générer divers artefacts, y compris du code, que les développeurs améliorent ensuite avec du code additionnel pour développer les différents outils linguistiques nécessaires pour un langage logiciel, par exemple un éditeur, un vérificateur, un compilateur, des couches d’accès aux données, etc. Des infrastructures logicielles tels que Eclipse Modeling Framework (EMF) illustrent ce flux de travail, en générant des API Java qui sont ensuite enrichies a des fins de validation, de débogage et de simulation. L’un des principaux enjeux de l’EDM est l’évolution du métamodèle et son impact sur les artefacts connexes. Dans cette thèse, nous nous concentrons sur l’artefact du code et sa co-évolution avec le métamodèle en évolution. En outre, nous visons a vérifier l’exactitude comportementale de la co-évolution du métamodèle et du code. Enfin, avec l’émergence des LLM, nous explorons leur utilité pour le problème de co-évolution du métamodèle et du code. Cette thèse répond a ces problèmes en : 1) en proposant une nouvelle approche de co-évolution entièrement automatisée des métamodèles et du code. Cette approche associe les erreurs de compilation a des patrons d’utilisation des éléments du métamodèle afin de sélectionner des résolutions appropriées, puis 2) en proposant une approche automatique pour vérifier que la co-évolution du code entre différentes versions n’a pas impacte son comportement lorsque son métamodèle évolue. métamodèle évolue. Cette approche s’appuie sur l’isolation d’un sous-ensembles des tests impactes avant et après la co-évolution. du code. 3) La dernière contribution concerne l’exploration de la capacité des LLM a proposer des co-évolutions correctes du code lorsque le métamodèle évolue. Cette approche est basée sur l’ingénierie des prompts, ou nous concevons et générons des prompts en langage naturel pour faire coévoluer au mieux le code impacte par l’évolution du métamodèle. Les trois contributions ont été évaluées sur des projets EMF d’OCL, Modisco et Papyrus. L’évaluation montre que notre approche automatique de co-évolution du code résout 100% des erreurs, avec 82% de précision et 81% de rappel, réduisant de manière significative l’effort manuel. De plus, notre deuxième contribution pour la vérification de la correction comportementale peut tracer et isoler avec succès les tests impactes par les changements de métamodèle représentant 5% des tests. Ensuite, après l’exécution des tests traces, la fluctuation du nombre de tests réussis, échoués ou erronés indique si la co-évolution du code est correcte ou non. L’utilisation de cette approche nous a permis de gagner 88% sur le nombre de tests total et 84% sur le temps d’exécution. Enfin, lors de l’évaluation de la capacité de ChatGPT dans la co-évolution de code, nous avons varie la valeur de la température, et la structure des prompts données. Nous avons constate que des températures plus basses donnent de meilleurs résultats avec un taux de correction de correction de 88,7%. En ce qui concerne la structure de prompts, le fait d’inclure de l’information sur lien d’abstraction de l’erreur et la réclamer des réponses alternatives améliorent les coévolutions proposées.

Étude et réalisation d'un réseau radiogoniométrique large bande et multipolarisation


Télécommunications / 29-04-2025
Harel Julien
Voir le résumé
Voir le résumé
La radiogoniométrie consiste à mesurer l’angle d’incidence de signaux électromagnétiques, et a pour applications la guerre électronique et le contrôle du spectre. Parmi les différentes méthodes existantes, l’interférométrie corrélative, reposant sur l’analyse du déphasage entre antennes, a été retenue. Toutefois cette méthode soulève diverses problématiques, telles que la compacité et la largeur de bande. Ce travail de thèse a consisté en premier lieu à concevoir des antennes compactes dans les bandes [1-6 GHz] et [6-18 GHz], tout en assurant une bonne adaptation d’impédance. Ces antennes présentent une diversité de polarisation horizontale et verticale, et sont co-localisées afin d’assurer la compacité du système. Ces antennes en bande [1-6 GHz] et [6-18 GHz] ont été réalisées, avec comme dimensions respectives 86.4 mm x 88 mm x 86.4 mm (0.288λ x 0.293λ x 0.288λ), et 30 mm x 22 mm x 30 mm (0.6λ x 0.44λ x 0.6λ). Un réseau de trois antennes par bande et par polarisation a été conçu en reprenant les topologies des antennes précédentes, de dimensions 329.4 mm x 88 mm x 86.4 mm pour la bande [1-6 GHz], et 105.2 mm x 22 x 30 mm pour la bande [6-18 GHz]. Des mesures en conditions réelles d’utilisation ont été effectuées en chambre anéchoïque via l’interférométrie corrélative, et permettent d’obtenir une bonne précision d’estimation d’angle d’arrivée. Par ailleurs, une méthode permettant d’améliorer la compacité d’antennes à onde progressive en les ondulant a été développée, ainsi qu’une technique modifiant la forme et la largeur du diagramme de rayonnement en plan H via un réseau d’antennes courbées selon un profil Vivaldi.

rss |< << Page précédente 1 2 3 4 Page suivante >> >| documents par page
© 2016  |  MENTIONS LEGALES  |  PLUS D'INFORMATION