|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Pertinence
Date
Auteur
Titre
|
|
/ 22-09-2020
Hamlat Bastien
Voir le résumé
Voir le résumé
Cette thèse concerne la modélisation mathématique des réactions cinétiques comprenant des phases pures. Dans le premier chapitre, un modèle de type EDOs discontinues pour la cinétique avec apparitions et disparitions d'espèces pour un nombre quelconque de minéraux est proposé. Une version régularisée du modèle permet de prouver la positivité et l’existence. Une analyse explicite plus approfondie dans le cas contenant une espèce réactive intermédiaire est menée. Dans le deuxième chapitre, une reformulation du modèle de cinétique chimique utilisant la théorie de Filippov est proposée. Une preuve de l'existence et de la positivité des solutions est réalisée. De plus, dans le cas des surfaces de discontinuité de codimension 1, une étude des configurations des champs fournit un résultat d'unicité et de caractérisation des trajectoires. Dans le troisième chapitre, un modèle de cinétique chimique de type systèmes dynamiques projetés est proposé. Une analyse de l'existence des solutions de ce modèle, des liens avec d'autres types de formulations et une méthode de résolution numérique adaptée sont proposés. Enfin, une illustration des résultats numériques obtenus est réalisée pour des systèmes de cinétique chimique.
|
|
/ 05-10-2016
Lepoutre Alexandre
Voir le résumé
Voir le résumé
Cette thèse s'intéresse à l'étude et au développement de méthodes de pistage mono et multicible en contexte Track-Before-Detect (TBD) par filtrage particulaire. Contrairement à l'approche classique qui effectue un seuillage préalable sur les données avant le pistage, l'approche TBD considère directement les données brutes afin de réaliser conjointement la détection et le pistage des différentes cibles. Il existe plusieurs solutions à ce problème, néanmoins cette thèse se restreint au cadre bayésien des Modèles de Markov Cachés pour lesquels le problème TBD peut être résolu à l'aide d'approximations particulaires. Dans un premier temps, nous nous intéressons à des méthodes particulaires monocibles existantes pour lesquels nous proposons différentes lois instrumentales permettant l'amélioration des performances en détection et estimation. Puis nous proposons une approche alternative du problème monocible fondée sur les temps d'apparition et de disparition de la cible; cette approche permet notamment un gain significatif au niveau du temps de calcul. Dans un second temps, nous nous intéressons au calcul de la vraisemblance en TBD -- nécessaire au bon fonctionnement des filtres particulaires -- rendu difficile par la présence des paramètres d'amplitudes des cibles qui sont inconnus et fluctuants au cours du temps. En particulier, nous étendons les travaux de Rutten et al. pour le calcul de la vraisemblance au modèle de fluctuations Swerling et au cas multicible. Enfin, nous traitons le problème multicible en contexte TBD. Nous montrons qu'en tenant compte de la structure particulière de la vraisemblance quand les cibles sont éloignées, il est possible de développer une solution multicible permettant d'utiliser, dans cette situation, un seule filtre par cible. Nous développons également un filtre TBD multicible complet permettant l'apparition et la disparition des cibles ainsi que les croisements.
|
|
/ 08-12-2021
Trémant Léopold
Voir le résumé
Voir le résumé
Les problèmes à relaxation rapide apparaissent dans de nombreux systèmes physiques ou biologiques, notamment dans le cadre de modèles cinétiques avec collisions. Leur comportement mélange une dynamique de relaxation de temps caractéristique epsilon et une partie lente d'interactions (généralement non-linéaire) ou de transport. Malgré le développement depuis les années 1980 de méthodes de résolution adaptées peu coûteuses (i.e. stables et essentiellement explicites), un problème demeure: la précision des méthodes est dégradée lorsque le pas de discrétisation est d'ordre epsilon. Dans ce manuscrit, on présente une méthode pour dépasser cette limite. L'approche mise en œuvre consiste à effectuer des développements asymptotiques par rapport au paramètre epsilon de sorte à pouvoir séparer le modèle asymptotique et son erreur; on parle alors d'un problème micro-macro. Ce nouveau problème peut être résolu numériquement et on reconstruit la solution du problème d'origine avec une précision indépendante du paramètre epsilon. Nos développements asymptotiques font appel à des résultats récents de moyennisation, si bien qu'un chapitre de ce manuscrit est dédié à l'exposition de preuves originales de certains résultats de moyennisation connus. On discute en outre d'extensions possibles de nos résultats.
|
|
/ 12-02-2019
Pinier Benoît
Voir le résumé
Voir le résumé
Le modèle RANS à une équation de fermeture est utilisée avec une nouvelle longueur de mélange. par interpolation, notre loi est universelle. Nous avons étendue ce résultat pour considérer les fonds rugueux. L'existence d'une solution au système d'équation associée est montrée, c'est un problème elliptique avec un terme source dans L¹. Nous utilisons le modèle "under location uncertainty" pour obtenir un profil de vitesse cohérent dans toute la couche limite turbulente. Le raisonnement que nous apportons ici lie un terme sous-grille à ce profile. Nous apportons également une estimation des variances à temps courts dans la zone visqueuse.
|
|
/ 01-12-2017
Horsin Romain
Voir le résumé
Voir le résumé
Cette thèse porte sur le comportement en temps long de solutions d’équations de type Vlasov, principalement le modèle Vlasov-HMF. On s’intéresse en particulier au phénomène d’amortissement Landau, prouvé mathématiquement dans divers cadres, pour plusieurs équations de type Vlasov, comme l’équation de Vlasov-Poisson ou le modèle Vlasov-HMF, et présentant certaines analogies avec le phénomène d’amortissement non visqueux pour l’équation d’Euler 2D. Les résultats qui y sont décrits sont les suivants. Le premier est un théorème d’amortissement Landau pour des solutions numériques du modèle Vlasov-HMF, obtenues par discrétisation en temps de ce dernier via des méthodes de splitting. Nous prouvons en outre la convergence des schémas numériques. Le second est un théorème d’amortissment Landau pour des solutions du modéle Vlasov-HMF linéarisé autour d’états stationnaires inhomogènes. Ce théorème est accompagné de nombreuses simulations numériques destinées à étudier numériquement le cas non-linéaire, et semblant mettre en lumière de nouveaux phénomènes. Enfin, le dernier résultat porte sur la discrétisation en temps de l’équation d’Euler 2D par un intégrateur de Crouch-Grossman symplectique. Nous prouvons la convergence du schéma.
|
|
/ 08-12-2014
Jacquemart Damien
Voir le résumé
Voir le résumé
La thèse porte sur la conception et l'analyse mathématique de méthodes de Monte Carlo fiables et précises pour l'estimation de la (très petite) probabilité qu'un processus de Markov atteigne une région critique de l'espace d'état avant un instant final déterministe. L'idée sous-jacente aux méthodes de branchement multi-niveaux étudiées ici est de mettre en place une suite emboitée de régions intermédiaires de plus en plus critiques, de telle sorte qu'atteindre une région intermédiaire donnée sachant que la région intermédiaire précédente a déjà été atteinte, n'est pas si rare. En pratique, les trajectoires sont propagées, sélectionnées et répliquées dès que la région intermédiaire suivante est atteinte, et il est facile d'estimer avec précision la probabilité de transition entre deux régions intermédiaires successives. Le biais dû à la discrétisation temporelle des trajectoires du processus de Markov est corrigé en utilisant des régions intermédiaires perturbées, comme proposé par Gobet et Menozzi. Une version adaptative consiste à définir automatiquement les régions intermédiaires, à l’aide de quantiles empiriques. Néanmoins, une fois que le seuil a été fixé, il est souvent difficile voire impossible de se rappeler où (dans quel état) et quand (à quel instant) les trajectoires ont dépassé ce seuil pour la première fois, le cas échéant. La contribution de la thèse consiste à utiliser une première population de trajectoires pilotes pour définir le prochain seuil, à utiliser une deuxième population de trajectoires pour estimer la probabilité de dépassement du seuil ainsi fixé, et à itérer ces deux étapes (définition du prochain seuil, et évaluation de la probabilité de transition) jusqu'à ce que la région critique soit finalement atteinte. La convergence de cet algorithme adaptatif à deux étapes est analysée dans le cadre asymptotique d'un grand nombre de trajectoires. Idéalement, les régions intermédiaires doivent êtres définies en terme des variables spatiale et temporelle conjointement (par exemple, comme l'ensemble des états et des temps pour lesquels une fonction scalaire de l’état dépasse un niveau intermédiaire dépendant du temps). Le point de vue alternatif proposé dans la thèse est de conserver des régions intermédiaires simples, définies en terme de la variable spatiale seulement, et de faire en sorte que les trajectoires qui dépassent un seuil précocement sont davantage répliquées que les trajectoires qui dépassent ce même seuil plus tardivement. L'algorithme résultant combine les points de vue de l'échantillonnage pondéré et du branchement multi-niveaux. Sa performance est évaluée dans le cadre asymptotique d'un grand nombre de trajectoires, et en particulier un théorème central limite est obtenu pour l'erreur d'approximation relative.
|
|
/ 14-02-2014
Rais Rania
Voir le résumé
Voir le résumé
Le travail effectué dans cette thèse a consisté à analyser différents aspects mathématiques et numériques d'une stratégie de résolution des problèmes de propagation d'onde acoustique et électromagnétique en domaine extérieur. Nous nous intéressons plus particulièrement à la méthode de couplage entre éléments finis et représentation intégrale (CEFRI) où nous analysons un algorithme de résolution itérative par analogie avec une méthode de décomposition de domaine ainsi que l'utilisation de la méthode multipôles rapide (FMM). Le système à résoudre fait intervenir des opérateurs intégraux ce qui rend crucial le recours à des méthodes rapides telles que la FMM. L'analogie avec une méthode de décomposition de domaine s'obtient par extension au problème de Maxwell des résultats établis par F. Ben Belgacem et al. pour le problème de Helmholtz posé en domaine non borné. Pour cela, nous avons montré le lien entre la méthode CEFRI et la méthode de Schwarz avec recouvrement total pour la résolution du problème de Maxwell en domaine non borné. Cette relecture de la méthode CEFRI offre également une technique de préconditionnement pour les solveurs de Krylov et nous a permis d'avoir une idée préliminaire sur la convergence de ces méthodes. Ainsi, nous nous intéressons plutôt à des méthodes itératives rapides. Pour cela, nous avons mené une analyse théorique afin de montrer la convergence superlinéaire du GMRES dans une configuration sphérique. La validation de ces aspects a été réalisée par l'enrichissement de nombreux intégrants de la librairie éléments finis Mélina++, en C++.
|
|
/ 31-10-2013
Lesage Éric
Voir le résumé
Voir le résumé
Cette thèse est consacrée à l'utilisation d'information auxiliaire en théorie des sondages à l'étape de l'échantillonnage et à l'étape de l'estimation. Dans le chapitre 2, on donne une présentation des principales notions de la théorie des sondages. Au chapitre 3, on propose une extension de la famille des estimateurs par calage reposant sur l'emploi de paramètres de calage complexes. Au chapitre 4 et 5, on s'intéresse à la correction simultanée des erreurs d'échantillonnage et de non-réponse au moyen d'un calage unique. On montre qu'en dépit du fait que le calage n'utilise pas explicitement les probabilités de réponse, il est nécessaire d'écrire le modèle de réponse afin de choisir correctement la fonction de calage. A défaut, on s'expose à des estimateurs biaisés dont le biais peut dépasser le biais de l'estimateur non-ajusté. En particulier, dans le cas du calage généralisé, la variance et le biais sont amplifiés pour des variables de calage faiblement corrélées aux variables instrumentales. Au chapitre 6, on montre qu'une approche conditionnelle, par rapport au plan de sondage, permet de construire des estimateurs plus robustes aux valeurs extrêmes et aux "sauteurs de strates". Au chapitre 7, on met en évidence que la méthode du tirage réjectif de Fuller conduit un estimateur par la régression qui peut être biaisé lorsque la variable d'intérêt ne suit pas un modèle de régression linéaire en fonction des variables d'équilibrage.
|
|
/ 14-12-2023
Tran Thu le
Voir le résumé
Voir le résumé
L’optimisation convexe est fréquente en apprentissage automatique, statistiques, signal et image. La résolution de problèmes d'optimisation en grande dimension reste difficile en raison de contraintes calculatoires et de stockage. La dernière décennie, les méthodes de ''safe screening'' sont devenues un outil puissant pour réduire la dimension de ces problèmes en se basant sur la connaissance d'une ''safe region'' contenant la solution optimale duale. La première contribution de cette thèse est un cadre mathématique pour créer de nouvelles ''safe region'' tout en démontrant leur supériorité par rapport à l'état de l'art. Notre cadre offre également une manière élégante d’unifier les ''safe regions'' existantes. Cette contribution établit en particulier une base théorique pour les futures avancées dans l’étude des ''safe region''. La seconde contribution est une extension de la méthodologie de ''safe screening'' à des problèmes en dimension infinie. Nous montrons notamment que l’intégration de cette méthode dans un algorithme de l'état de l'art permet de réduire significativement sa complexité numérique tout en préservant sa propriété de convergence. Cette contribution met en évidence le potentiel du ''safe screening'' pour résoudre efficacement les défis calculatoires dans des contextes de dimension infinie.
|
|
/ 29-09-2023
Dufée Benjamin
Voir le résumé
Voir le résumé
Cette thèse explore différentes techniques d’assimilation de données pour des modèles océaniques, et en particulier les modèles stochastiques. La méthodologie stochastique utilisée s’appelle l’incertitude de position (LU en anglais) et vise à incorporer un caractère stochastique à des modèles géophysiques via une décomposition de la vitesse en une composante grande échelle lisse en temps, ainsi qu’une composante aléatoire fortement oscillante, modélisée par un processus de Wiener cylindrique. Comme le caractère aléatoire du modèle ainsi que la quantification d’incertitude sont cruciaux pour l’assimilation de données, il est exposé dans cette thèse que le modèle LU comporte des avantages indéniables sur le modèle SQG (Surface Quasi-Geostrophic en anglais). Nous avons dans un premier temps, pour ce modèle SQG, comparé le modèle stochastique aux techniques déterministes d’inflation pour un filtre de Kalman d’ensemble "square-root" localisé. Nous avons obtenu, dans cette première étude, une validation numérique que l’inflation peut être difficile à régler et peut mener à une divergence du filtre en temps fini, et que le modèle stochastique donne de meilleurs performances que les modèles déterministes avec inflation en terme d’erreurs et de qualité de variance d’ensemble. Une deuxième étude a consisté à la proposition d’une procédure de calibration du bruit stochastique, visant à guider l’essaim de trajectoires vers une région d’intérêt, proche des observations. Cette procédure s’appuie sur le caractère stochastique inhérent de LU et se base sur les transformations de Girsanov. L’ajout de ce terme de guidage a mené à une amélioration significative des résultats dans le cas d’une mauvaise estimation de la condition initiale. La dernière partie de cette thèse étudie la prédiction d’ensemble sous le point de vue des espaces de Hilbert à noyau auto-repoduisant (RKHS en anglais). Dans ce contexte, l’opérateur de Koopman associé à la dynamique et son adjoint sont tous deux unitaires et uniformément continus, ce qui conduit à l’énoncé d’un théorème spectral adapté aux RKHS. Des méthodes d’assimilation de données sont conçues pour prendre en compte la structure et les propriétés des RKHS, qui justifient notamment un principe de superposition qui est largement utilisé, bien que sujet à caution, pour les filtres de Kalman d’ensemble.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|