|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Titre
Auteur
|
|
Signal, image, vision
/ 11-07-2024
Ma Qixiang
Voir le résumé
Voir le résumé
La réparation endovasculaire des anévrismes aortiques abdominaux (EVAR) et l’implantation valvulaire aortique transcathéter (TAVI) sont des interventions endovasculaires pour lesquelles l’analyse des images CT préopératoires est une étape préalable au planning et au guidage de navigation. Dans le cas de la procédure EVAR, les travaux se concentrent spécifiquement sur la question difficile de la segmentation de l’aorte dans l’imagerie CT acquise sans produit de contraste (NCCT), non encore résolue. Dans le cas de la procédure TAVI, ils abordent la détection des repères anatomiques permettant de prédire le risque de complications et de choisir la bioprothèse. Pour relever ces défis, nous proposons des méthodes automatiques basées sur l’apprentissage profond (DL). Un modèle entièrement supervisé basé sur la fusion de caractéristiques 2D-3D est d’abord proposé pour la segmentation vasculaire dans les NCCT. Un cadre faiblement supervisé basé sur des pseudo-labels gaussiens est ensuite envisagé pour réduire et faciliter l’annotation manuelle dans la phase d’apprentissage. Des méthodes hybrides faiblement et entièrement supervisées sont finalement proposées pour étendre la segmentation à des structures vasculaires plus complexes, au-delà de l’aorte abdominale. Pour la valve aortique dans les CT cardiaques, une méthode DL de détection en deux étapes des points de repère d’intérêt et entièrement supervisée est proposée. Les résultats obtenus contribuent à l’augmentation de l’image préopératoire et du modèle numérique du patient pour les interventions endovasculaires assistées par ordinateur.
|
|
Photonique
/ 10-07-2024
GAUDILLAT VALENTINE
Voir le résumé
Voir le résumé
Au cours des dernières années, le besoin en débit des télécommunications a considérablement augmenté. Pour maintenir une avance significative, il est essentiel d’améliorer les réseaux existants et de développer de nouvelles infrastructures plus performantes. Ainsi, les réseaux du futur pourraient être constitués de fibre faiblement multimode afin d’augmenter le nombre de canaux indépendants dans une même fibre. Il faudrait alors transférer les fonctions optiques déjà démontrées dans les réseaux actuels telles que la conversion de fréquence ou la régénération de phase. Cette thèse étudie numériquement et expérimentalement le mélange à quatre ondes sensible et insensible à la phase dans les fibres faiblement multimodes. Les simulations présentées dans cette thèse sont basées sur l’équation non-linéaire de Schrödinger multimode implémentée par une méthode de split-step Fourier. Les simulations ont démontré que la régénération de phase intra- ou inter-modale serait possible. Expérimentalement, la fibre utilisée n’a pas permis de mettre en œuvre du mélange à quatre ondes suffisamment efficace pour réaliser cette fonction optique. Cependant, pour la première fois à notre connaissance, nous avons démontré expérimentalement du mélange à quatre ondes sensible à la phase dans les modes LP01 et LP11 d’une fibre faiblement multimode.
|
|
Mathématiques et leurs interactions
/ 04-07-2024
Adim Mahieddine
Voir le résumé
Voir le résumé
Dans cette thèse, nous établissons rigoureusement des ponts entre les écoulements continument stratifiés et les écoulements multi-couches. Dans une première partie, nous considérons le système de Saint-Venant multi-couches avec un terme supplémentaire diffusif qui a un effet régularisant, dont la motivation provient des travaux des océanographes Gent & McWilliams sur le mélange isopycnal et la diffusivité des tourbillons, et qui pourrait être interprété comme un terme de turbulence. En exploitant la structure de ce système, nous obtenons un dictionnaire qui nous permet d'interpréter ce système multi-couches comme une discrétisation de la formulation en coordonnées isopycnales du système hydrostatique continument stratifié avec le terme diffusif de Gent & McWilliams ajouté de manière similaire. Nous montrons la convergence de la solution discrète vers la solution continue à mesure que le nombre de couches tend vers l'infini, et nous fournissons un taux de convergence explicite. Dans une deuxième partie, dans cette thèse, nous abordons la limite "inverse", nous montrons rigoureusement que, sous certaines conditions d'hyperbolicité et dans un cadre topologique bien choisi, la solution du système continument stratifié converge vers le système de Saint-Venant bi-couches dans la limite de stratification nette.
|
|
Mathématiques et leurs interactions
/ 02-07-2024
Legeais François
Voir le résumé
Voir le résumé
Dans ce manuscrit, nous étudions différents problèmes de turbulence de couches limites. La première partie décrit un modèle simple de couplage de deux fluides caractérisés par le même problème de Stokes incompressible stationnaire. Le système d'équation est notamment fermé par une condition de continuité à l'interface, qui peut être vu comme une condition limite d'un système caractérisé par une condition de Robin à l'interface. Des algorithmes de décomposition de domaine de type Schwarz permettent d'établir des simulations numériques de ce modèle. Enfin, un modèle plus complexe d'équations de Navier-Stokes stationnaires avec conditions au bord non-linéaires est également étudié et simulé numériquement. Dans une deuxième partie, on analyse des systèmes d'équations elliptiques scalaires à poids, typiques de sous-couches turbulentes. On établit notamment l'existence de solutions faibles et la correspondance avec la théorie de Monin-Obukhov.
|
|
Informatique
/ 01-07-2024
Venkataramanan Shashanka
Voir le résumé
Voir le résumé
Le principal objectif de la vision par ordinateur est de permettre aux machines d'extraire des informations significatives à partir de données visuelles, telles que des images et des vidéos, et de tirer parti de ces informations pour effectuer une large gamme de tâches. À cette fin, de nombreuses recherches se sont concentrées sur le développement de modèles d'apprentissage profond capables de coder des représentations visuelles complètes et robustes. Une stratégie importante dans ce contexte consiste à préentraîner des modèles sur des ensembles de données à grande échelle, tels qu'ImageNet, pour apprendre des représentations qui peuvent présenter une applicabilité transversale aux tâches et faciliter la gestion réussie de diverses tâches en aval avec un minimum d'effort. Pour faciliter l'apprentissage sur ces ensembles de données à grande échelle et coder de bonnes représentations, des stratégies complexes d'augmentation des données ont été utilisées. Cependant, ces augmentations peuvent être limitées dans leur portée, étant soit conçues manuellement et manquant de diversité, soit générant des images qui paraissent artificielles. De plus, ces techniques d'augmentation se sont principalement concentrées sur le jeu de données ImageNet et ses tâches en aval, limitant leur applicabilité à un éventail plus large de problèmes de vision par ordinateur. Dans cette thèse, nous visons à surmonter ces limitations en explorant différentes approches pour améliorer l'efficacité et l'efficience de l'apprentissage des représentations. Le fil conducteur des travaux présentés est l'utilisation de techniques basées sur l'interpolation, telles que mixup, pour générer des exemples d'entraînement diversifiés et informatifs au-delà du jeu de données original. Dans le premier travail, nous sommes motivés par l'idée de la déformation comme un moyen naturel d'interpoler des images plutôt que d'utiliser une combinaison convexe. Nous montrons que l'alignement géométrique des deux images dans l'espace des caractéristiques permet une interpolation plus naturelle qui conserve la géométrie d'une image et la texture de l'autre, la reliant au transfert de style. En nous appuyant sur ces observations, nous explorons la combinaison de mix6up et de l'apprentissage métrique profond. Nous développons une formulation généralisée qui intègre mix6up dans l'apprentissage métrique, conduisant à des représentations améliorées qui explorent des zones de l'espace d'embedding au-delà des classes d'entraînement. En nous appuyant sur ces insights, nous revisitons la motivation originale de mixup et générons un plus grand nombre d'exemples interpolés au-delà de la taille du mini-lot en interpolant dans l'espace d'embedding. Cette approche nous permet d'échantillonner sur l'ensemble de l'enveloppe convexe du mini-lot, plutôt que juste le long des segments linéaires entre les paires d'exemples. Enfin, nous explorons le potentiel de l'utilisation d'augmentations naturelles d'objets à partir de vidéos. Nous introduisons un ensemble de données "Walking Tours" de vidéos égocentriques en première personne, qui capturent une large gamme d'objets et d'actions dans des transitions de scènes naturelles. Nous proposons ensuite une nouvelle méthode de préentraînement auto-supervisée appelée DoRA, qui détecte et suit des objets dans des images vidéo, dérivant de multiples vues à partir des suivis et les utilisant de manière auto-supervisée.
|
|
Mathématiques et leurs interactions
/ 20-06-2024
Maccan Matilde
Voir le résumé
Voir le résumé
Cette thèse achève la classification des sous-schémas en groupes paraboliques des groupes algébriques semi-simples sur un corps algébriquement clos, en particulier de caractéristique deux et trois. Dans un premier temps, nous présentons la classification en supposant que la partie réduite de ces sous-groupes soit maximale, avant de passer au cas général. Nous parvenons à une description quasiment uniforme : à l'exception d'un groupe de type G₂ en caractéristique deux, chaque sous-schémas en groupes parabolique est obtenu en multipliant des paraboliques réduits par des noyaux d'isogénies purement inséparables, puis en prenant l'intersection. En conclusion, nous discutons quelques implications géométriques de cette classification.
|
|
Informatique
/ 18-06-2024
Jeudy Corentin
Voir le résumé
Voir le résumé
La transition vers la cryptographie post-quantique est une tâche considérable ayant suscité un nombre important de travaux ces dernières années. En parallèle, la cryptographie pour la protection de la vie privée, visant à pallier aux limitations inhérentes des mécanismes cryptographiques basiques dans ce domaine, a connu un véritable essor. Malgré le succès de chacune de ces branches prises individuellement, combiner les deux aspects de manière efficace s'avère extrêmement difficile.
Le but de cette thèse de doctorat consiste alors à proposer de nouvelles constructions visant à garantir une protection efficace et post-quantique de la vie privée, et plus généralement des mécanismes d'authentification avancés. Dans ce but, nous nous consacrons tout d'abord à l'étude de l'une des hypothèses mathématiques fondamentales utilisées en cryptographie sur les réseaux Euclidiens: Module Learning With Errors. Nous prouvons que le problème ne devient pas significativement plus facile même en choisissant des distributions de secret et d'erreur plus courtes. Ensuite, nous proposons des optimisations des échantillonneurs d'antécédents utilisés par de nombreuses signatures avancées. Loin d'être limitées à ce cas d'usage, nous montrons que ces optimisations mènent à la conception de signatures standards efficaces. Enfin, à partir de ces contributions, nous concevons des algorithmes de signatures avec protocoles efficaces, un outil polyvalent utile à la construction d'applications avancées. Nous en montrons les capacités en proposant le premier mécanisme d'accréditation anonyme post-quantique, que nous implémentons afin de mettre en exergue son efficacité aussi bien théorique que pratique.
|
|
Chimie : Procédés et Environnement
/ 14-06-2024
Kavugho Mission Sophie
Voir le résumé
Voir le résumé
L’ultrafiltration (UF) du lait écrémé pour la standardisation de la teneur en protéines pour la fabrication des fromages est un procédé membranaire très répandu à l’échelle industrielle. Cependant, le colmatage des membranes par des protéines du lait écrémé provoque une baisse de la productivité et constitue un verrou de ce procédé.
Ainsi, l’étape de nettoyage/désinfection bi-quotidienne est indispensable afin de restaurer les performances de la membrane et d’assurer la sécurité sanitaire ainsi que la qualité des produits. Elle est en général réalisée avec des détergents formulés alcalins et acides mais il est également possible d’utiliser des détergents enzymatiques formulés ayant la réputation d’être plus efficaces. Cependant, peu d’études fondamentales existent à ce sujet, ce que cette thèse se propose de contribuer à combler. L’objectif de cette thèse a été de développer de nouveaux détergents enzymatiques efficaces et compatibles avec la membrane en PES/PVP largement utilisée pour l’UF de lait écrémé. La cible du nettoyage est un dépôt de protéines. La démarche s’est appuyée sur une méthodologie d’aide à la formulation de détergents fondée sur la mesure des dépôts résiduels sur la membrane par ATR-FTIR: que ce soit les protéines, les enzymes ou les autres constituants des détergents étudiés. De multiples prototypes ont été formulés en collaboration avec la société Kersia. Leur évaluation a suivi 3 étapes: i) des tests rapides en réacteur fermé (14 cm²) pour sélectionner les détergents prometteurs selon leur efficacité d’élimination du colmatage protéique, leur rinçabilité et le respect de l’intégrité de la membrane à court termes, ii) la transposition des résultats prometteurs en condition de filtration (127 cm²) validant également la filtrabilité des détergents, iii) enfin, la validation de la compatibilité détergent/membrane sur le long terme grâce au vieillissement accéléré sous micro-onde (3 cm²), et au nettoyage d’une membrane spirale (6.8 m²) pendant 52 heures.
|
|
Photonique
/ 14-06-2024
Meziani Sofiane
Voir le résumé
Voir le résumé
Ces dernières années, un intérêt scientifique croissant s'est manifesté pour le développement de circuits photoniques dans le moyen infrarouge (MIR) dédiés aux applications de capteurs. La présence, dans cette plage de longueurs d'onde, des bandes d'absorption affichées par plusieurs molécules toxiques et polluantes rend les capteurs MIR bien adaptés pour répondre à une gamme diversifiée d'utilisateurs, avec divers avantages tels que des coûts de fabrication réduits et la compacité des dispositifs. Cependant, ces circuits doivent être fabriqués à partir de matériaux transparents dans le MIR. Les verres de chalcogénure (ChGs) et le silicium poreux (SiP) présentent un grand potentiel pour la conception de tels circuits. Les ChGs offrent une large transparence allant du proche infrarouge à 20 µm, tandis que le SiP est transparent de 1 à 8 µm. Les ChGs peuvent être utilisés pour la spectroscopie par champ évanescent, tandis que le SiP peut améliorer l'interaction avec les molécules ciblées grâce à ses pores ouverts permettant la détection de volume. Ce travail est dédié au développement de capteurs optiques intégrés MIR à partir des deux plateformes ChGs et SiP. Les circuit intégrés sont d’abord fabriqués puis caractérisés grâce à un banc optique adapté pour le MIR. Des tests de transduction sont menés pour la preuve de concept avec des analytes en phase gazeuse ou liquide pour des longueur d’onde autour de 4 et de 7µm.
|
|
Informatique
/ 13-06-2024
Hoarau Arthur
Voir le résumé
Voir le résumé
Ce document expose les recherches effectuées dans le cadre d'une thèse sur l'apprentissage actif de données incertaines et imprécises, soutenue grâce au financement de la Région Bretagne et du département Côtes-d'Armor. Deux principaux axes de recherche ont été explorés : les fonctions de croyance pour modéliser l'incertitude dans les données, et l'apprentissage actif pour travailler avec un nombre limité d'observations labellisées. La thèse s'est penchée sur la qualité et la quantité des labels en apprentissage automatique, visant à améliorer la modélisation des labels (qualité) tout en réduisant les coûts de labellisation (quantité). Des jeux de données à labels riches ont été proposés et mis à la disposition de la communauté scientifique. De nouveaux modèles ont été développés, des arbres de décision et des forêts aléatoires crédibilistes, tous capables de produire des prédictions incertaines et imprécises. Deux méthodes d'échantillonnage, fondées sur l'incertitude crédibiliste, ont été proposées et ont montré une augmentation des performances en apprentissage actif sur des jeux de données classiques. Enfin, des perspectives de recherche future ont été envisagées, notamment l'amélioration des méthodes d'échantillonnage par incertitude crédibiliste. Les travaux en cours comprennent la comparaison de la méthode proposée avec d'autres modèles de décomposition d'incertitudes, en se basant sur des recherches récentes liées à la thèse.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|