|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Titre
Auteur
|
|
Mathématiques et leurs interactions
/ 02-07-2024
Legeais François
Voir le résumé
Voir le résumé
Dans ce manuscrit, nous étudions différents problèmes de turbulence de couches limites. La première partie décrit un modèle simple de couplage de deux fluides caractérisés par le même problème de Stokes incompressible stationnaire. Le système d'équation est notamment fermé par une condition de continuité à l'interface, qui peut être vu comme une condition limite d'un système caractérisé par une condition de Robin à l'interface. Des algorithmes de décomposition de domaine de type Schwarz permettent d'établir des simulations numériques de ce modèle. Enfin, un modèle plus complexe d'équations de Navier-Stokes stationnaires avec conditions au bord non-linéaires est également étudié et simulé numériquement. Dans une deuxième partie, on analyse des systèmes d'équations elliptiques scalaires à poids, typiques de sous-couches turbulentes. On établit notamment l'existence de solutions faibles et la correspondance avec la théorie de Monin-Obukhov.
|
|
Informatique
/ 01-07-2024
Venkataramanan Shashanka
Voir le résumé
Voir le résumé
Le principal objectif de la vision par ordinateur est de permettre aux machines d'extraire des informations significatives à partir de données visuelles, telles que des images et des vidéos, et de tirer parti de ces informations pour effectuer une large gamme de tâches. À cette fin, de nombreuses recherches se sont concentrées sur le développement de modèles d'apprentissage profond capables de coder des représentations visuelles complètes et robustes. Une stratégie importante dans ce contexte consiste à préentraîner des modèles sur des ensembles de données à grande échelle, tels qu'ImageNet, pour apprendre des représentations qui peuvent présenter une applicabilité transversale aux tâches et faciliter la gestion réussie de diverses tâches en aval avec un minimum d'effort. Pour faciliter l'apprentissage sur ces ensembles de données à grande échelle et coder de bonnes représentations, des stratégies complexes d'augmentation des données ont été utilisées. Cependant, ces augmentations peuvent être limitées dans leur portée, étant soit conçues manuellement et manquant de diversité, soit générant des images qui paraissent artificielles. De plus, ces techniques d'augmentation se sont principalement concentrées sur le jeu de données ImageNet et ses tâches en aval, limitant leur applicabilité à un éventail plus large de problèmes de vision par ordinateur. Dans cette thèse, nous visons à surmonter ces limitations en explorant différentes approches pour améliorer l'efficacité et l'efficience de l'apprentissage des représentations. Le fil conducteur des travaux présentés est l'utilisation de techniques basées sur l'interpolation, telles que mixup, pour générer des exemples d'entraînement diversifiés et informatifs au-delà du jeu de données original. Dans le premier travail, nous sommes motivés par l'idée de la déformation comme un moyen naturel d'interpoler des images plutôt que d'utiliser une combinaison convexe. Nous montrons que l'alignement géométrique des deux images dans l'espace des caractéristiques permet une interpolation plus naturelle qui conserve la géométrie d'une image et la texture de l'autre, la reliant au transfert de style. En nous appuyant sur ces observations, nous explorons la combinaison de mix6up et de l'apprentissage métrique profond. Nous développons une formulation généralisée qui intègre mix6up dans l'apprentissage métrique, conduisant à des représentations améliorées qui explorent des zones de l'espace d'embedding au-delà des classes d'entraînement. En nous appuyant sur ces insights, nous revisitons la motivation originale de mixup et générons un plus grand nombre d'exemples interpolés au-delà de la taille du mini-lot en interpolant dans l'espace d'embedding. Cette approche nous permet d'échantillonner sur l'ensemble de l'enveloppe convexe du mini-lot, plutôt que juste le long des segments linéaires entre les paires d'exemples. Enfin, nous explorons le potentiel de l'utilisation d'augmentations naturelles d'objets à partir de vidéos. Nous introduisons un ensemble de données "Walking Tours" de vidéos égocentriques en première personne, qui capturent une large gamme d'objets et d'actions dans des transitions de scènes naturelles. Nous proposons ensuite une nouvelle méthode de préentraînement auto-supervisée appelée DoRA, qui détecte et suit des objets dans des images vidéo, dérivant de multiples vues à partir des suivis et les utilisant de manière auto-supervisée.
|
|
Mathématiques et leurs interactions
/ 20-06-2024
Maccan Matilde
Voir le résumé
Voir le résumé
Cette thèse achève la classification des sous-schémas en groupes paraboliques des groupes algébriques semi-simples sur un corps algébriquement clos, en particulier de caractéristique deux et trois. Dans un premier temps, nous présentons la classification en supposant que la partie réduite de ces sous-groupes soit maximale, avant de passer au cas général. Nous parvenons à une description quasiment uniforme : à l'exception d'un groupe de type G₂ en caractéristique deux, chaque sous-schémas en groupes parabolique est obtenu en multipliant des paraboliques réduits par des noyaux d'isogénies purement inséparables, puis en prenant l'intersection. En conclusion, nous discutons quelques implications géométriques de cette classification.
|
|
Informatique
/ 18-06-2024
Jeudy Corentin
Voir le résumé
Voir le résumé
La transition vers la cryptographie post-quantique est une tâche considérable ayant suscité un nombre important de travaux ces dernières années. En parallèle, la cryptographie pour la protection de la vie privée, visant à pallier aux limitations inhérentes des mécanismes cryptographiques basiques dans ce domaine, a connu un véritable essor. Malgré le succès de chacune de ces branches prises individuellement, combiner les deux aspects de manière efficace s'avère extrêmement difficile.
Le but de cette thèse de doctorat consiste alors à proposer de nouvelles constructions visant à garantir une protection efficace et post-quantique de la vie privée, et plus généralement des mécanismes d'authentification avancés. Dans ce but, nous nous consacrons tout d'abord à l'étude de l'une des hypothèses mathématiques fondamentales utilisées en cryptographie sur les réseaux Euclidiens: Module Learning With Errors. Nous prouvons que le problème ne devient pas significativement plus facile même en choisissant des distributions de secret et d'erreur plus courtes. Ensuite, nous proposons des optimisations des échantillonneurs d'antécédents utilisés par de nombreuses signatures avancées. Loin d'être limitées à ce cas d'usage, nous montrons que ces optimisations mènent à la conception de signatures standards efficaces. Enfin, à partir de ces contributions, nous concevons des algorithmes de signatures avec protocoles efficaces, un outil polyvalent utile à la construction d'applications avancées. Nous en montrons les capacités en proposant le premier mécanisme d'accréditation anonyme post-quantique, que nous implémentons afin de mettre en exergue son efficacité aussi bien théorique que pratique.
|
|
Chimie : Procédés et Environnement
/ 14-06-2024
Kavugho Mission Sophie
Voir le résumé
Voir le résumé
L’ultrafiltration (UF) du lait écrémé pour la standardisation de la teneur en protéines pour la fabrication des fromages est un procédé membranaire très répandu à l’échelle industrielle. Cependant, le colmatage des membranes par des protéines du lait écrémé provoque une baisse de la productivité et constitue un verrou de ce procédé.
Ainsi, l’étape de nettoyage/désinfection bi-quotidienne est indispensable afin de restaurer les performances de la membrane et d’assurer la sécurité sanitaire ainsi que la qualité des produits. Elle est en général réalisée avec des détergents formulés alcalins et acides mais il est également possible d’utiliser des détergents enzymatiques formulés ayant la réputation d’être plus efficaces. Cependant, peu d’études fondamentales existent à ce sujet, ce que cette thèse se propose de contribuer à combler. L’objectif de cette thèse a été de développer de nouveaux détergents enzymatiques efficaces et compatibles avec la membrane en PES/PVP largement utilisée pour l’UF de lait écrémé. La cible du nettoyage est un dépôt de protéines. La démarche s’est appuyée sur une méthodologie d’aide à la formulation de détergents fondée sur la mesure des dépôts résiduels sur la membrane par ATR-FTIR: que ce soit les protéines, les enzymes ou les autres constituants des détergents étudiés. De multiples prototypes ont été formulés en collaboration avec la société Kersia. Leur évaluation a suivi 3 étapes: i) des tests rapides en réacteur fermé (14 cm²) pour sélectionner les détergents prometteurs selon leur efficacité d’élimination du colmatage protéique, leur rinçabilité et le respect de l’intégrité de la membrane à court termes, ii) la transposition des résultats prometteurs en condition de filtration (127 cm²) validant également la filtrabilité des détergents, iii) enfin, la validation de la compatibilité détergent/membrane sur le long terme grâce au vieillissement accéléré sous micro-onde (3 cm²), et au nettoyage d’une membrane spirale (6.8 m²) pendant 52 heures.
|
|
Informatique
/ 13-06-2024
Hoarau Arthur
Voir le résumé
Voir le résumé
Ce document expose les recherches effectuées dans le cadre d'une thèse sur l'apprentissage actif de données incertaines et imprécises, soutenue grâce au financement de la Région Bretagne et du département Côtes-d'Armor. Deux principaux axes de recherche ont été explorés : les fonctions de croyance pour modéliser l'incertitude dans les données, et l'apprentissage actif pour travailler avec un nombre limité d'observations labellisées. La thèse s'est penchée sur la qualité et la quantité des labels en apprentissage automatique, visant à améliorer la modélisation des labels (qualité) tout en réduisant les coûts de labellisation (quantité). Des jeux de données à labels riches ont été proposés et mis à la disposition de la communauté scientifique. De nouveaux modèles ont été développés, des arbres de décision et des forêts aléatoires crédibilistes, tous capables de produire des prédictions incertaines et imprécises. Deux méthodes d'échantillonnage, fondées sur l'incertitude crédibiliste, ont été proposées et ont montré une augmentation des performances en apprentissage actif sur des jeux de données classiques. Enfin, des perspectives de recherche future ont été envisagées, notamment l'amélioration des méthodes d'échantillonnage par incertitude crédibiliste. Les travaux en cours comprennent la comparaison de la méthode proposée avec d'autres modèles de décomposition d'incertitudes, en se basant sur des recherches récentes liées à la thèse.
|
|
Signal, image, vision
/ 11-06-2024
Engin Deniz
Voir le résumé
Voir le résumé
Le contenu vidéo a considérablement augmenté en volume et en diversité à l'ère numérique, et cette expansion a souligné la nécessité de technologies avancées de compréhension des vidéos. Poussée par cette nécessité, cette thèse explore la compréhension sémantique des vidéos, en exploitant plusieurs modes perceptuels similaires aux processus cognitifs humains et un apprentissage efficace avec une supervision limitée, semblable aux capacités d'apprentissage humain. Cette thèse se concentre spécifiquement sur la réponse aux questions sur les vidéos comme l'une des principales tâches de compréhension vidéo. Notre première contribution traite de la réponse aux questions sur les vidéos à long terme, nécessitant une compréhension du contenu vidéo étendu. Alors que les approches récentes dépendent de sources externes générées par les humains, nous traitons des données brutes pour générer des résumés vidéo. Notre contribution suivante explore la réponse aux questions vidéo en zéro-shot et en few-shot, visant à améliorer l'apprentissage efficace à partir de données limitées. Nous exploitons la connaissance des modèles à grande échelle existants en éliminant les défis d'adaptation des modèles pré-entraînés à des données limitées. Nous démontrons que ces contributions améliorent considérablement les capacités des systèmes de réponse aux questions vidéo multimodaux, où les données étiquetées spécifiquement annotées par l'homme sont limitées ou indisponibles.
|
|
Biologie cellulaire, biologie du développement
/ 28-05-2024
Dieng Joris
Voir le résumé
Voir le résumé
La prolifération et la différenciation cellulaires sont des processus essentiels qui sous-tendent le développement des organismes multicellulaires. L'arrêt de la prolifération cellulaire précède généralement la différenciation terminale, suggérant que ces deux processus pourraient être coordonnés. Nous avons utilisé le développement très stéréotypé de l'intestin de C. elegans pour déterminer si les contrôles des programmes de prolifération et de différenciation sont systématiquement couplés. Nous montrons qu'un retard dans l'arrêt du cycle cellulaire entraîne un retard dans le recrutement de certains composants seulement de la bordure en brosse. Réciproquement, nous constatons que l'arrêt du cycle cellulaire repose sur les facteurs de différenciation ELT-2 et ELT-7 uniquement dans les cellules intestinales postérieures. L'apparition de divisions surnuméraires en l'absence d'ELT-2 et d'ELT-7 est associée à des changements dans le profil d'expression des régulateurs du cycle cellulaire CKI-1 et cycline B1. Notre travail démontre donc l'existence d'interactions réciproques entre la prolifération et la différenciation cellulaire. Il montre cependant aussi que ces deux processus ne sont que partiellement couplés, suggérant l'existence de mécanismes supplémentaires assurant leur contrôle temporel.
|
|
Signal, image, vision
/ 27-05-2024
Li Yang
Voir le résumé
Voir le résumé
L’objectif ultime de thèse est de développer un système de synchronisation de bout en bout pour la compensation en temps réel des mouvements lors du traitement du cancer du poumon et du foie sur l’Elekta Unity. Ce système surveillera et localisera automatiquement en temps réel la position spatiale tridimensionnelle de la tumeur, et prédira sa trajectoire dans 0.5 secondes. Un signal de synchronisation sera généré pour contrôler l’activation et la désactivation du faisceau pendant la radiothérapie, réduisant ainsi l’inexactitude dans la délivrance de la dose due au mouvement respiratoire. Pour atteindre cet objectif, les étapes suivantes ont été réalisées : 1. Validation de l’efficacité de KCF dans le suivi des tumeurs en 2D sur des images en IRM cine, plus efficace et précise par rapport aux méthodes traditionnelles (TM). La précision est améliorée en calculant le centroïde des pixels, et la sélection des plans (coronales vs sagittales) pour localiser les tumeurs dans la direction SI. 2. Proposition d’un modèle C-NLSTM spécifique au patient qui combine la préformation du modèle C-NLSTM et l’optimisation de la cible pour obtenir une meilleure prédiction du mouvement de tumeurs. Le transfer learning, en utilisant efficacement le modèle préformé sur un ensemble de données limité, est une solution pertinente face au manque de données de l’Elekta Unity. Le modèle montre une performance satisfaisante dans la prédiction en temps réel pour la compensation du movement spécifique au patient. 3. Validation de la régression linéaire dans la prédiction du mouvement des organs ou des tumeurs en utilisant des images MR ciné 2D et proposition d’un schéma de prédiction en ligne pour les signaux de gating. Les signaux de gating sont déclenchés àl’aide de modèles prédictifs, prouvant son efficacité dans la MRgRT en comparant avec des modèles RNN. 4. Intégration des travaux susmentionnés, proposition d’une solution complète de compensation des mouvements respiratoires basée sur la IRM cine orthogonale. En optimisant un modèle de pavé et en explorant différents scénarios, des signaux de gating sont générés pour répondre aux besoins de traitement des différents patients. La validation par étude dosimétrique confirme que l’efficacité de la solution proposée dans la protection des organes environnants à risque. En résumé, le système proposé est robuste et fiable, réalisant une adaptation en temps réel au mouvement des tumeurs en MRgRT. Il fournit un solide soutien pour la compensation du mouvement respiratoire dans le traitement des cancers thoraciques et abdominaux, servant d’outil essentiel pour la radiothérapie de précision.
|
|
Informatique
/ 24-05-2024
Younes Mohamed
Voir le résumé
Voir le résumé
Cette thèse étudie l’extraction et la simulation des interactions entre combattants, principalement pour la boxe, en utilisant des techniques d’apprentissage profond : l’estimation du mouvement humain à partir de vidéos, l’apprentissage par imitation basé sur l’apprentissage par renforcement, et la simulation de personnages basée sur la physique. Dans le contexte de l’analyse sportive à partir de vidéos, un protocole de référence est proposé dans lequel diverses méthodes contemporaines d’extraction de poses humaines en 2D sont évaluées pour leur précision à dériver des informations positionnelles à partir d’enregistrements vidéo RVB de boxeurs lors de mouvements complexes et dans des circonstances de tournage défavorables. Dans une deuxième partie, la thèse se concentre sur la reproduction d’interactions réalistes entre boxeurs à partir de données de mouvement et d’interaction grâce à une méthodologie innovante permettant d’imiter les interactions et les mouvements de plusieurs personnages simulés physiquement à partir de données de capture de mouvement non organisées. Initialement, cette technique a été démontrée pour simuler une boxe légère entre deux combattants sans contact physique significatif. Par la suite, elle a été étendue pour prendre en compte des données d’interaction supplémentaires concernant la boxe avec du contact physique réel et d’autres activités de combat, ainsi que pour gérer les instructions de l’utilisateur et les restrictions d’interaction.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|