| |
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
|
Tri :
Date
Titre
Auteur
|
|
|
Mathématiques et leurs interactions
/ 19-12-2025
Bertret Victor
Voir le résumé
Voir le résumé
L’optimisation du contrôle de l’aération dans les stations d’épuration est essentielle pour répondre aux objectifs économiques et environnementaux. Le développement de stratégies avancées reste freiné par la difficulté de calibrer des modèles prédictifs fiables à partir de données limitées, partielles et bruitées. Cette thèse propose un cadre méthodologique unifié, de la modélisation à la commande, fondé sur les modèles stochastiques à espace d’état et l’assimilation de données afin d’estimer les dynamiques du procédé, reconstruire les états latents et quantifier rigoureusement les incertitudes. L'étude comparative des diverses familles de modèles (mécanistes, boîtes grises, boîtes noires) et des stratégies de contrôle en temps réel aboutit à la sélection d'une architecture robuste, combinant un modèle non paramétrique et la Programmation Dynamique Stochastique. Cette solution est ensuite validée dans une simulation en boucle fermée réaliste et testée face à des perturbations non modélisées, telle que la variabilité de la charge polluante. Il est démontré que ce cadre réduit les coûts d’exploitation de 15 à 25 % tout en respectant les contraintes, y compris en l'absence d'information sur les perturbations externes. Enfin, l'étude démontre que la performance de la commande repose moins sur la quête d'une justesse prédictive absolue que sur la capacité du contrôleur stochastique à intégrer l'incertitude globale, y compris les perturbations non modélisées, dans sa politique de décision.
|
|
|
Chimie moléculaire, chimie macromoléculaire
/ 16-12-2025
Ari Denis
Voir le résumé
Voir le résumé
L’électronique organique, visant la conception de dispositifs innovants et performants, exploite les propriétés des semi-conducteurs organiques (SCOs) en s’appuyant sur des études de type structure-propriétés approfondies. Au cours de cette thèse, deux familles de SCOs ont été étudiées dans des contextes distincts mais complémentaires : les nano-anneaux et les hydrocarbures purs (PHCs). Dans une première partie consacrée aux nano-anneaux de type donneur-accepteur, des structures π-conjuguées contraintes et originales, une solide relation structure-propriétés est établie. L’étude de nano-anneaux présentant différentes tailles et agencements, synthétisés grâce à une approche modulaire, a mis en évidence l’impact de ces deux paramètres sur leurs propriétés, ouvrant la voie à leurs applications potentielles en EO. La seconde partie s’appuie sur ce type de relation structure-propriétés, déjà bien établie, pour développer de nouvelles matrices hôtes de type PHCs, constitués uniquement d’atomes de carbone et d’hydrogène, pour accroître la stabilité et la performance des diodes organiques électroluminescentes bleues. Ainsi, des matrices hôtes dérivées du spirobifluorène (SBF), un fragment se démarquant des autres PHCs par le contrôle précis des propriétés qu’il permet, ont été conçus et ont conduit à des dispositifs bleus à la fois stables et hautement performants. Les deux parties de ce manuscrit sont représentatives de la recherche en électronique organique : l’une, fondamentale, visant à établir une relation structure propriété, et l’autre, appliquée, consacrée à repousser les performances des dispositifs actuels.
|
|
|
Informatique
/ 12-12-2025
Amara Hamza
Voir le résumé
Voir le résumé
Les multiprocesseurs sur puce reposent sur les réseaux sur puce (NoCs) pour assurer des communications efficaces entre cœurs. L’augmentation du trafic accroît toutefois la latence et la consommation de bande passante, motivant l’adoption de techniques comme la compression delta et les communications approximatives. Bien qu’elles améliorent performances et efficacité énergétique, ces techniques exposent les NoCs à de nouvelles vulnérabilités face aux attaques de type Trojan matériel, pouvant dégrader la qualité des applications et les performances. Nous analysons ces menaces et proposons des solutions adaptées pour y remédier. Pour la compression delta, nous proposons SED2C, qui intègre statiquement des codes de détection et de correction d'erreurs pour protéger des bases de taille fixe, et DyED2C, qui ajuste dynamiquement la protection pour des bases de taille variable. Les résultats expérimentaux montrent une amélioration significative de la qualité des applications avec un faible surcoût matériel. Pour les communications approximatives, nous proposons DyEKF, basé sur un filtre de Kalman étendu (EKF), permettant un compromis entre fiabilité, performances et qualité des applications. Les évaluations montrent une réduction significative du taux de retransmission par rapport à l’état de l’art, tout en maintenant une qualité équivalente et un coût matériel modéré.
|
|
|
Signal, image, vision
/ 11-12-2025
Kabbara Mira
Voir le résumé
Voir le résumé
Les capteurs à fibre optique de mesure répartie de déformation constituent une technologie prometteuse pour le suivi de santé structurale. Cependant, les mesures peuvent être lissées par rapport aux déformations réelles en raison d’un effet de transfert mécanique entre le capteur et la structure. À partir d’un modèle unidimensionnel issu de la mécanique des milieux continus, cette thèse vise à comprendre ces limites et à estimer les déformations réelles à partir des mesures, dans le cadre d’un problème inverse. Une nouvelle méthode, Double First-Order Decomposition (Dfod), a été développée pour résoudre efficacement le problème direct, offrant une précision quasi analytique et une rapidité de calcul remarquable. Une méthode inverse quadratique, fondée sur Dfod, permet ensuite de reconstruire le champ de déformation réel avec stabilité et robustesse face au bruit expérimental. Des essais sur des barres d’acier instrumentées avec différents câbles optiques ont validé le modèle et permis de caractériser le transfert mécanique à l’aide d’un paramètre global lié aux propriétés et conditions d’installation de chaque câble. Ces travaux ont également révélé les limites des câbles à gaine métallique, dont le paramètre de transfert varie avec la charge appliquée. Ce travail propose un cadre cohérent et validé expérimentalement, ouvrant la voie au développement de systèmes DFOS intelligents et intégrés pour le suivi en temps réel des infrastructures.
|
|
|
Génie mécanique
/ 11-12-2025
Semnani Rahbar Mohammadmahdi
Voir le résumé
Voir le résumé
Cette thèse porte sur le développement d’une méthode de caractérisation mécanique des matériaux métalliques à partir d’une courbe d’indentation reliant force et enfoncement d’un indenteur quasi sphérique. Une première étude expérimentale a permis d’établir le protocole d’essai le plus adapté aux matériaux industriels. Les simulations avec un indenteur sphérique rigide a ensuite permis de constituer une base de données numérique limitée mais rapide à générer. Une méthode originale de transformation des courbes a été développée pour passer d’un indenteur rigide à un indenteur déformable non sphérique. Validée numériquement, elle permet de constituer rapidement une base d’indentation pour un indenteur monobloc déformable de rayon proche de 0,5 mm, utilisé ensuite pour la caractérisation. La méthode de caractérisation proposée combine analyse inverse via un algorithme simplexe et exploitation de cette base numérique. Pour renforcer la robustesse face au bruit expérimental, des déformations représentatives sont extraites : calculées à différents niveaux d’enfoncement à partir de la matrice hessienne des résidus, les contraintes associées sont déduites de la loi de Hollomon, générant plusieurs points représentatifs. Par ailleurs, diverses stratégies de recalage entre courbes expérimentales et numériques permettent d’accroître le nombre de points sur la loi d’écrouissage. Enfin, une validation numérique et expérimentale montre une bonne corrélation entre les paramètres mécaniques issus de l’indentation et ceux des essais de traction, avec une précision particulièrement élevée sur la résistance à la traction.
|
|
|
Informatique
/ 10-12-2025
Boëzennec Robin
Voir le résumé
Voir le résumé
Cette thèse vise à réduire l'utilisation de ressources dans les systèmes de calcul haute performance (HPC). Elle commence par explorer l'utilisation d'algorithmes d’apprentissage automatique pour améliorer l'ordonnancement de tâches, mais conclut que les ordonnanceurs actuels sont déjà proches de l'optimal, et que de récents progrès proclamés dans ce domaine étaient dus à de mauvaises métriques et des méthodologies d'évaluation défaillantes. Les éléments d'une bonne évaluation sont donc discutés, et des métriques pertinentes mises en avant. La deuxième contribution explore l’usage de systèmes de mémoire désagrégée pour limiter la consommation de mémoire. Deux algorithmes d’allocation avec garanties théoriques sont proposés et évalués, montrant une réduction significative de la consommation mémoire tout en n'engendrant qu'une faible augmentation du response time. Le dernier volet introduit des modèles de vieillissement du matériel au niveau des nœuds de calcul, couplé à une stratégie de changement de fréquence pour maximiser la quantité totale de calcul sur la durée de vie du système. L’approche se montre robuste face aux incertitudes sur le vieillissement réel du matériel. En conclusion, ces approches augmentent l’efficience économique mais induisent aussi une hausse des temps de réponse, freinant ainsi l’effet rebond.
|
|
|
Informatique
/ 10-12-2025
Hémadou Louis
Voir le résumé
Voir le résumé
Dans de nombreuses applications d’apprentissage machine, les données d’entraînement et de test diffèrent sensiblement, créant ce que l’on appelle un écart de domaine. Dans un contexte industriel, ce décalage apparaît typiquement lorsqu’un modèle est entraîné sur des données synthétiques puis déployé sur des données réelles. Un tel écart compromet la robustesse des modèles : leurs performances se dégradent dès qu’ils sont confrontés aux données de test. Cette thèse vise à concevoir de nouvelles méthodes pour limiter ces pertes de performance et renforcer la capacité de généralisation face à un changement de domaine. L’approche développée s’appuie sur l’exploitation des connaissances encodées par les grands modèles pré-entraînés, apparus peu avant le début de ces travaux, afin de tirer parti de leur richesse représentationnelle pour mieux gérer ces décalages. Nous proposons dans un premier temps une évaluation de l’efficacité de ces modèles sur des données issues de contextes académiques et industriels. Nous introduisons ensuite une méthode d’adaptation de domaine fondée sur l’utilisation d’une indication textuelle décrivant le domaine cible. Ces deux contributions portent sur la classification d’images, tandis qu’une dernière partie étend les travaux à la tâche de détection d’objets.
|
|
|
Photonique
/ 10-12-2025
Kervazo Ronan
Voir le résumé
Voir le résumé
Ces dernières années, un intérêt scientifique croissant s'est manifesté pour le développement de circuits photoniques intégrés dans la gamme du visible et proche ultraviolet (UV) pour adresser des applications telles que la détection sous-marine, l’optogénétique ou encore celle liées à la quantique. Elles nécessitent également des sources lasers monomodes compactes à faible largeur de raie pouvant être obtenues en exploitant le principe de la contre-réaction optique. La conception de fonctions de filtrage intégrées est donc nécessaire pour développer ce type de sources compactes. Ces fonctions doivent être fabriquées à partir de matériaux transparents dans la gamme d’étude. L’oxyde d’aluminium présente un grand potentiel pour la conception de tels circuits grâce notamment à sa large fenêtre de transparence allant du proche ultraviolet au moyen infrarouge. Ce travail est dédié au développement de fonctions optiques intégrées pour le bleu et le proche-UV à partir d’oxyde d’aluminium. Les circuits optiques intégrés sont d’abord conçus par simulation, fabriqués par un intervenant extérieur dans le cadre d’une collaboration, puis caractérisés grâce à un banc optique adapté pour la gamme spectrale d’étude. Des composants tels que des interféromètres multimodes ou des micro-résonateurs en anneau sont présentés. Le développement d’un système de contre-réaction basé sur une diode intégrée et un réseau de Bragg fibré est également étudié et a permis d’affiner spectralement le mode principal de la diode.
|
|
|
Informatique
/ 10-12-2025
Philippe Pierrick
Voir le résumé
Voir le résumé
Les systèmes logiciels sont omniprésents dans les sociétés modernes. Qu'il s'agisse de smartphones ou de services publics essentiels, nombre d'entre eux traitent des données sensibles, rendant critique leur protection contre les fuites et les erreurs de gestion de ces données. Parmi les faiblesses récurrentes, comme l'illustrent la CWE-200 et ses descendants, la divulgation involontaire d'information est une menace persistante. Cette thèse explore comment l'analyse statique intégrée au sein d'un compilateur peut détecter automatiquement de telles faiblesses. Nous commençons par disséquer l'analyseur statique de GCC, en documentant son moteur d'exécution symbolique, son modèle mémoire, et son système de diagnostique, le mettant ainsi en évidence comme un bon candidat pour des analyses de sécurité. En nous appuyant sur cette base, nous proposons GnuZero, un outil basé sur GCC pour détecter des mises à zéro manquantes de données sensibles, identifiées par les CWE-226 et CWE-244, grâce à un ensemble d'attributs dédiés et d'une analyse de propagation de teinte basée sur la durée de vie des variables, validée sur des bancs d'essai et des logiciels du monde réel. Nous généralisons ensuite cette approche avec GnuSecret, un cadriciel unifiant le suivi de secrets pour capturer des faiblesses plus larges de divulgation d'informations, détectant avec succès des vulnérabilités connues et nouvelles. Ensemble, ces contributions démontrent la faisabilité et l'efficacité des analyses mises en œuvre dans un compilateur largement utilisé.
|
|
|
Informatique
/ 04-12-2025
Vincent Erwan
Voir le résumé
Voir le résumé
Améliorer l'efficacité des transports en commun est un enjeu crucial pour les organismes qui en assurent la gestion. Aujourd'hui, grâce à l'essor des données massives et des nouvelles méthodes d'apprentissage automatique, il est de plus en plus facile d'organiser la gestion des services de transport et de comprendre ainsi que de prédire différents critères de performance, comme la vitesse commerciale. La prédiction de la vitesse commerciale permettrait d'améliorer la fluidité du réseau, ses performances et la satisfaction de ses usagers et de ses gestionnaires. Cependant, les méthodes actuellement mises en œuvre sont imparfaites et ont du mal à prendre en compte la complexité des interactions entre les différents facteurs influençant la performance du réseau. D'où le besoin, voire la nécessité, pour les exploitants, de déterminer des approches plus avancées et performantes.
Le principal défi réside dans l'identification de ces facteurs déterminants. Par ailleurs, les relations spatio-temporelles entre ces facteurs et la vitesse commerciale rendent les estimations complexes. L'utilisation des réseaux de neurones en graphes (GNN) apparaît donc comme l'une des solutions prometteuses. Actuellement, leurs applications dans la littérature restent peu explorées pour cette tâche.
Dans cette thèse, une approche fondée sur les GNN est proposée pour prédire la vitesse commerciale des bus. L'un des principaux indicateurs de performance des réseaux de transport en commun. Des expérimentations sur des jeux de données issus d'un réseau de transport de bus montrent que cette approche surpasse les méthodes plus traditionnelles, en termes de précision et de robustesse. Ces résultats ouvrent la voie à une gestion plus efficace et explicative des systèmes complexes de transports urbains par bus.
|
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|