|
Tri :
Date
Titre
Auteur
|
|
|
Signal, image, vision
/ 22-01-2026
Takhtardeshir Soheib
Voir le résumé
Voir le résumé
La demande d'expériences visuelles immersives dans des applications telles que la réalité virtuelle et la téléprésence a mis en évidence les limites de l'imagerie 2D traditionnelle. L'imagerie Light Field (LF) répond à ce problème en capturant une représentation 4D d'une scène, encodant à la fois les informations spatiales (texture) et angulaires (point de vue). Cette richesse permet une véritable parallaxe et une perception de la profondeur, mais crée un goulot d'étranglement de données important, car les volumes de données massifs constituent un obstacle majeur au stockage, à la transmission et au traitement efficaces en temps réel. Les méthodes de compression conventionnelles traitent souvent les données LF comme une simple séquence d'images, n'exploitant pas efficacement la structure spatio-angulaire sous-jacente, ce qui conduit à des performances sous-optimales. Cette thèse aborde le défi de la compression efficace des LF en développant un cadre d'apprentissage fondé sur des principes et centré sur le spatial-angular disentanglement. Le cœur du travail est une série d'architectures basées sur des Variational Autoencoder (VAE) qui séparent explicitement les caractéristiques spatiales et angulaires en des représentations latentes distinctes. Cette approche offre une plus grande flexibilité et efficacité en permettant à chaque domaine d'être modélisé en fonction de ses propriétés statistiques uniques. Le modèle VAE fondamental est progressivement amélioré par deux contributions clés : premièrement, l'intégration de dual-hyperprior entropy models pour apprendre des distributions de probabilité adaptées à chaque flux latent, améliorant la performance rate-distortion ; et deuxièmement, l'introduction d'un information-theoretic regularizer pour garantir une séparation robuste des caractéristiques. Enfin, un pipeline de compression modulaire et léger est proposé pour compresser davantage ces représentations latentes sans nécessiter un réentraînement du réseau. Les méthodes proposées ont été rigoureusement évaluées sur des datasets LF publics standards ainsi que sur un nouvel ensemble de données sphériques de LF créé dans le cadre de cette recherche pour prendre en charge des scénarios de téléprésence immersive. Les évaluations objectives démontrent que les cadres désenchevêtrés atteignent une performance rate-distortion supérieure, avec des gains BD-PSNR significatifs par rapport aux codecs de pointe, qu'ils soient basés sur l'apprentissage ou traditionnels. De manière cruciale, les méthodes offrent également des temps d'encodage et de décodage considérablement plus rapides, une exigence essentielle pour les applications en temps réel. Pour évaluer la performance perceptive, une étude formelle de la qualité subjective a été menée, qui a confirmé que les méthodes proposées délivrent une qualité visuelle améliorée, particulièrement dans la préservation de la cohérence angulaire et la réduction des artefacts qui altèrent l'expérience immersive. En conclusion, cette thèse démontre que le fait de désenchevêtrer, modéliser et compresser explicitement les composantes spatiales et angulaires des Light Fields est une stratégie très efficace. Les cadres et outils développés font progresser l'état de l'art en fournissant des solutions pratiques et évolutives qui équilibrent l'efficacité de la compression, la vitesse de calcul et la qualité perceptive. Ce travail apporte une contribution significative à la faisabilité de l'utilisation de l'imagerie LF de haute qualité dans des applications immersives à bande passante limitée. Cette thèse est basée sur les contributions de six publications scientifiques évaluées par des pairs.
|
|
|
Énergie, thermique, combustion
/ 12-12-2025
Gal Soulayma
Voir le résumé
Voir le résumé
Cette thèse porte sur l’intensification des transferts thermiques au moyen de nanofluides à base de structures carbonées, en associant une caractérisation expérimentale rigoureuse et une modélisation numérique avancée sous COMSOL Multiphysics. Deux formulations industrielles un nanofluide au graphène et un nanofluides hybride graphène–Fe₃O₄ ont été étudiées. Leurs propriétés thermophysiques et électriques ont été mesurées en fonction de la concentration massique (0,005–0,2 %) et de la température (283,15–313,15 K), puis comparées à des modèles théoriques et complétées par des corrélations empiriques. La première étude numérique analyse la convection naturelle magnétohydrodynamique dans une cavité tridimensionnelle en utilisant un nanofluide à base de nanotubes de carbone (CNT), afin de comprendre les mécanismes fondamentaux du transfert thermique. Les simulations montrent que l’ajout de nanoparticules renforce les échanges thermiques, tandis que le champ magnétique permet un contrôle actif des mouvements convectifs.
La seconde étude porte sur la convection mixte dans un micro-échangeur à contre-courant utilisant les nanofluides caractérisés. Elle évalue l’impact des paramètres électromagnétiques, des vitesses d’entrée et des propriétés spécifiques des nanofluides sur les performances thermiques globales. Les simulations identifient des zones de performance optimale dépendant de la configuration de l’écoulement, de la nature du nanofluide et des conditions opératoires.
|
|
|
Signal, image, vision
/ 11-12-2025
Kabbara Mira
Voir le résumé
Voir le résumé
Les capteurs à fibre optique de mesure répartie de déformation constituent une technologie prometteuse pour le suivi de santé structurale. Cependant, les mesures peuvent être lissées par rapport aux déformations réelles en raison d’un effet de transfert mécanique entre le capteur et la structure. À partir d’un modèle unidimensionnel issu de la mécanique des milieux continus, cette thèse vise à comprendre ces limites et à estimer les déformations réelles à partir des mesures, dans le cadre d’un problème inverse. Une nouvelle méthode, Double First-Order Decomposition (Dfod), a été développée pour résoudre efficacement le problème direct, offrant une précision quasi analytique et une rapidité de calcul remarquable. Une méthode inverse quadratique, fondée sur Dfod, permet ensuite de reconstruire le champ de déformation réel avec stabilité et robustesse face au bruit expérimental. Des essais sur des barres d’acier instrumentées avec différents câbles optiques ont validé le modèle et permis de caractériser le transfert mécanique à l’aide d’un paramètre global lié aux propriétés et conditions d’installation de chaque câble. Ces travaux ont également révélé les limites des câbles à gaine métallique, dont le paramètre de transfert varie avec la charge appliquée. Ce travail propose un cadre cohérent et validé expérimentalement, ouvrant la voie au développement de systèmes DFOS intelligents et intégrés pour le suivi en temps réel des infrastructures.
|
|
|
Photonique
/ 10-12-2025
Kervazo Ronan
Voir le résumé
Voir le résumé
Ces dernières années, un intérêt scientifique croissant s'est manifesté pour le développement de circuits photoniques intégrés dans la gamme du visible et proche ultraviolet (UV) pour adresser des applications telles que la détection sous-marine, l’optogénétique ou encore celle liées à la quantique. Elles nécessitent également des sources lasers monomodes compactes à faible largeur de raie pouvant être obtenues en exploitant le principe de la contre-réaction optique. La conception de fonctions de filtrage intégrées est donc nécessaire pour développer ce type de sources compactes. Ces fonctions doivent être fabriquées à partir de matériaux transparents dans la gamme d’étude. L’oxyde d’aluminium présente un grand potentiel pour la conception de tels circuits grâce notamment à sa large fenêtre de transparence allant du proche ultraviolet au moyen infrarouge. Ce travail est dédié au développement de fonctions optiques intégrées pour le bleu et le proche-UV à partir d’oxyde d’aluminium. Les circuits optiques intégrés sont d’abord conçus par simulation, fabriqués par un intervenant extérieur dans le cadre d’une collaboration, puis caractérisés grâce à un banc optique adapté pour la gamme spectrale d’étude. Des composants tels que des interféromètres multimodes ou des micro-résonateurs en anneau sont présentés. Le développement d’un système de contre-réaction basé sur une diode intégrée et un réseau de Bragg fibré est également étudié et a permis d’affiner spectralement le mode principal de la diode.
|
|
|
Automatique, productique et robotique
/ 04-12-2025
Marino Antonio
Voir le résumé
Voir le résumé
Les systèmes multi-robots constituent une classe centrale de systèmes multi-agents, où plusieurs robots coopèrent pour accomplir des tâches dépassant les capacités d’un seul agent. Leur efficacité repose sur des mécanismes décentralisés ou distribués, mais les approches classiques, bien qu’efficaces pour analyser la coordination et le maintien de la connectivité, peinent à s’adapter à des environnements dynamiques et incertains. L’apprentissage automatique offre une alternative prometteuse en permettant aux agents d’apprendre des stratégies de coordination robustes à partir de données, mais il intègre rarement la communication explicite, pourtant essentielle à l’évolutivité. Cette thèse propose des méthodes hybrides combinant apprentissage et contrôle distribué sensible à la communication, afin de concevoir des systèmes multi-robots plus adaptatifs, robustes et déployables dans des environnements réels.
|
|
|
Photonique
/ 26-11-2025
Chevalier Dylan
Voir le résumé
Voir le résumé
Dans le cadre des réseaux optiques passifs (PON), l'évolution vers le 50G-PON, qui vise des débits jusqu'à 50 Gbit/s, s'accompagne de défis techniques liés à l'interférence entre symboles créée par la dispersion chromatique et la bande passante réduite des composants à faible coût utilisés . Pour compenser ces dégradations, l'égalisation du canal s'avère indispensable et peut être mise en œuvre soit par traitement numérique (Digital Signal Processing, DSP), soit par traitement analogique (Analog Signal Processing, ASP). Plus économique et moins énergivore, la solution analogique évite le recours à des convertisseurs analogique-numérique à haut débit onéreux, mais doit composer avec certaines imperfections propres aux solutions analogiques. Cette thèse propose une méthode d'optimisation d'un égaliseur analogique de type FeedForward Equalizer (FFE) basée sur le critère de l'erreur quadratique moyenne minimale, avec une validation expérimentale dans les domaines électrique et optique. Les résultats montrent une réduction notable du taux d'erreur sur les éléments binaires et une amélioration du diagramme de l'œil. Dans un second temps, l'étude examine l'association d'un FFE analogique avec un code correcteur d'erreurs à entrée dure (Hard-Input Forward Error Correction, HI-FEC), afin de comparer cette approche à l'approche numérique. Il est ainsi démontré qu'un FFE analogique couplé à un HI-FEC peut offrir des performances proches de celles d'une solution numérique basée sur un FEC à entrée souple (Soft-Input FEC, SI-FEC), tout en étant plus abordable et moins gourmand en énergie. Ces résultats soulignent la pertinence de l'approche analogique pour répondre aux exigences du 50G-PON.
|
|
|
Photonique
/ 13-11-2025
Segondat Quentin
Voir le résumé
Voir le résumé
Cette thèse explore la modélisation, la conception, la caractérisation et l’encapsulation d’amplificateurs optiques intégrés sur nitrure de silicium, utilisant des guides d’ondes en alumine dopée à l’erbium, dans le cadre du projet européen OPHELLIA. Une étude spectroscopique des ions erbium a permis de développer un modèle numérique pour analyser l’impact de l’absorption excitée (ESA), du transfert d’énergie vers le haut (ETU) et de l’extinction de l’émission (quenching) sur les performances des amplificateurs, ainsi que pour estimer les paramètres optimaux afin de maximiser le gain. La première fabrication de circuits photoniques intégrés (PIC) à amplificateurs dopés à l’erbium (EDWA) a révélé des gains en petit signal de 4,5 dB et 18 dB sur puce et sur la section active, respectivement. Une optimisation du design a ensuite permis d’atteindre des gains de 15,2 dB, 19,1 dB et 24,4 dB, avec des puissances maximales de 110 mW, 180 mW et 330 mW, respectivement. L’encapsulation des puces dans un boîtier de dimensions 53 x 45 x 11 mm3 a abouti à un gain de 15 dB et une puissance maximale de 30 mW en sortie.
|
|
|
Signal, image, vision
/ 12-11-2025
Jebbari Houda
Voir le résumé
Voir le résumé
Le sommeil joue un rôle clé dans le développement neurologique du nouveau-né. Chez les prématurés, sa qualité et son organisation indiquent précocement la maturation cérébrale et le risque de troubles. Dans les Unités de Soins Intensifs Néonatals (USIN), l’évaluation des états de sommeil est essentielle, mais les méthodes traditionnelles, basées sur l’observation ou la polysomnographie, restent lourdes et peu adaptées à un suivi continu. De nombreuses études ont proposé des méthodes automatiques utilisant des signaux physiologiques ou comportementaux, mais leur robustesse, interprétabilité et généralisabilité sont limitées. Ces travaux de thèse développent une chaîne complète pour classifier les états de sommeil, avec un focus sur le Sommeil Calme (SC), stade clé du développement. La méthode inclut : i) l’extraction de caractéristiques à partir de trois modalités (ECG, respiration, mouvements) ; ii) une classification non supervisée pour l’aide à l’annotation du SC ; iii) un modèle supervisé compact et interprétable pour estimer le SC et distinguer trois stades (SC, sommeil non calme, éveil). Les résultats montrent une bonne concordance avec les annotations d’experts pour le SC, tandis que la classification de trois stades nécessite encore des améliorations. Cette approche ouvre la voie à un suivi automatique et non invasif du sommeil des prématurés, notamment du SC.
|
|
|
Signal, image, vision
/ 10-11-2025
Joseph Tomy Linda Iris
Voir le résumé
Voir le résumé
L'épilepsie touche environ 1 % de la population mondiale, et environ 30 % des patients épileptiques souffrent d'épilepsie pharmacorésistante (DRE). Les techniques de stimulation électrique, notamment la stimulation cérébrale profonde (DBS) et la stimulation transcrânienne à courant continu (tDCS), sont apparues comme des stratégies thérapeutiques alternatives pour ces patients. Cependant, les mécanismes par lesquels ces interventions produisent des effets bénéfiques restent mal compris. La modélisation informatique est devenue un outil précieux pour comprendre les mécanismes sous-jacents à ces troubles neurologiques. L'objectif principal de cette thèse est de développer des modèles informatiques afin d'améliorer notre compréhension des effets post-stimulation de la neuromodulation électrique, en particulier les changements neuroplastiques qu'elle induit. À cette fin, nous avons développé un nouveau modèle de masse neuronale thalamocorticale qui intègre la plasticité synaptique à court terme et l'activation des récepteurs extrasynaptiques. Ce modèle explique la suppression dépendante de la fréquence de l'activité interictale observée dans la dysplasie corticale focale après une stimulation thalamique. En outre, nous avons étudié les effets de la stimulation par courant continu (DCS) à l'aide d'une modélisation de la masse neuronale, en examinant comment la stimulation influence les changements neuroplastiques pour différentes fréquences de pics interictales dans les réseaux épileptogènes.En résumé, ce travail propose des mécanismes potentiels sous-jacents aux effets thérapeutiques de la stimulation électrique et présente un cadre de modélisation pour étudier les réponses neuroplastiques associées à de telles interventions dans l'épilepsie.
|
|
|
Signal, image, vision
/ 06-11-2025
Manche Maureen
Voir le résumé
Voir le résumé
L’ablation par cathéter est actuellement la seule méthode curative pour traiter les arythmies cardiaques. Elle nécessite une étude électrophysiologique longue et invasive pour détecter les cibles d'ablation. Dans ce contexte, l’Imagerie ÉlectroCardioGraphique (IECG) constitue une alternative non invasive prometteuse, permettant de reconstruire des cartographies 3D de l’activité électrique du cœur à partir de signaux ECG de surface et de données anatomiques issues d’imageries médicales (IRM ou scanner). Cette approche vise à localiser plus précisément les zones à ablater. Toutefois, l’IECG requiert la résolution d’un problème inverse mal posé, rendant la solution instable et non unique. Pour résoudre ce problème, il est indispensable de le régulariser en utilisant un choix adéquat des hyper-paramètres. Dans un premier temps, une analyse comparative des méthodes existantes de sélection de ces hyper-paramètres est réalisée. Dans un second temps, de nouvelles approches basées sur le principe de contradiction ont été proposées pour différents a priori, donnant naissance à des méthodes IECG automatiques. Une évaluation sur données réalistes générées par un modèle cœur-torse basse résolution et sur quelques jeux de données réelles a été réalisée mettant en évidence les avantages et limites de chaque méthode.
|
|