|
|<
<< Page précédente
9
10
11
12
13
14
15
Page suivante >>
>|
|
documents par page
|
Tri :
Pertinence
Date
Auteur
Titre
|
|
/ 28-06-2023
Corbillé Simon
Voir le résumé
Voir le résumé
Notre objectif est de concevoir un système de reconnaissance et de segmentation d'écriture manuscrite d'enfants dans le but d'analyser précisément l'écriture afin de faire des retours orthographiques immédiats à l'enfant. Les contributions de cette thèse reposent sur l'hybridation de modèles d'apprentissage profond avec des modèles utilisant des connaissances expertes explicites. La première contribution consiste à intégrer la dynamique de l'écriture contenue dans le signal en ligne dans un réseau de neurones convolutifs pour faire de la reconnaissance de caractères. La seconde contribution porte sur l'amélioration d'un système existant d'analyse de mots. Ce système utilise un mécanisme de guidage par la consigne ainsi que les mots phonétiquement proches de la consigne pour aiguiller son analyse. Le principe est d'intégrer la prédiction d'un modèle de reconnaissance Seq2Seq dans le système de guidage. L'objectif est de palier les manques du mécanisme de guidage quand les mots d'entrée contiennent des erreurs non-phonétiques. La troisième contribution propose un nouveau système de reconnaissance et de segmentation. Il repose sur la combinaison d'un modèle dédié à la reconnaissance et d'un modèle dédié à la segmentation. Le système intègre également les connaissances contenues dans le signal en ligne afin d'améliorer la précision de la segmentation. Enfin, nous avons développé un mécanisme de rejet dans le but d'améliorer la qualité du retour effectué à l'enfant. Les résultats des expérimentations démontrent l'intérêt et l'efficacité de ces contributions.
|
|
/ 07-07-2023
Abboud Marc
Voir le résumé
Voir le résumé
Une surface affine (sur un corps algébriquement clos) est une variété de dimension 2 définie par des équations polynomiales. Lorsqu’on se donne un endomorphisme d’une telle surface, on peut se poser les questions naturelles suivantes : y’a-t-il des orbites Zariski-denses ? Si l’orbite d’un point part à l’infini, peut-on contrôler sa vitesse de fuite ? Y’a-t-il beaucoup d’orbites périodiques ? Peut-on exhiber une mesure de probabilité invariante intéressante par le système dynamique ? Pour répondre à ces questions, j’utilise des techniques valuatives. Plus précisément un endomorphisme f d’une surface affine S induit une transformation de l’espace des valuations centrées à l’infini de S. L’étude de la dynamique de f sur cet espace de valuations permet de comprendre la dynamique de f sur S.
|
|
/ 12-07-2023
Legaspi Juanatey Xabier
Voir le résumé
Voir le résumé
L'objectif de cette thèse est d'obtenir une meilleure compréhension du comportement des taux de croissance exponentiels au sein de la classe des groupes qui agissent de manière acylindrique dans un espace hyperbolique au sens de Gromov. Pour ce faire, nous aborderons deux problèmes de nature différente. Dans le premier problème, nous étudierons les taux de croissance exponentiels des sous-groupes quasi-convexes. Nous comparerons ces taux avec celui du groupe ambiant et nous déterminerons quand il est possible d'obtenir une égalité/inégalité stricte. Pour ce faire, nous allons exploiter des actions propres sur des espaces métriques, a priori, non hyperboliques, mais dont les isométries se comportent comme les isométries loxodromiques d'un espace hyperbolique. Le deuxième problème tourne autour de la croissance exponentielle uniforme uniforme. Nous prouverons que cette propriété est préservée si nous prenons des quotients à petite simplification de groupes qui agissent de manière acylindrique sur un espace hyperbolique. En corollaire, nous obtiendrons qu'il existe une borne inférieure universelle sur le taux de croissance exponentielle uniforme pour la famille des quotients à petite simplification classique. Cette borne ne dépend que d'un des deux paramètres d'acylindricité.
|
|
/ 29-09-2023
Dufée Benjamin
Voir le résumé
Voir le résumé
Cette thèse explore différentes techniques d’assimilation de données pour des modèles océaniques, et en particulier les modèles stochastiques. La méthodologie stochastique utilisée s’appelle l’incertitude de position (LU en anglais) et vise à incorporer un caractère stochastique à des modèles géophysiques via une décomposition de la vitesse en une composante grande échelle lisse en temps, ainsi qu’une composante aléatoire fortement oscillante, modélisée par un processus de Wiener cylindrique. Comme le caractère aléatoire du modèle ainsi que la quantification d’incertitude sont cruciaux pour l’assimilation de données, il est exposé dans cette thèse que le modèle LU comporte des avantages indéniables sur le modèle SQG (Surface Quasi-Geostrophic en anglais). Nous avons dans un premier temps, pour ce modèle SQG, comparé le modèle stochastique aux techniques déterministes d’inflation pour un filtre de Kalman d’ensemble "square-root" localisé. Nous avons obtenu, dans cette première étude, une validation numérique que l’inflation peut être difficile à régler et peut mener à une divergence du filtre en temps fini, et que le modèle stochastique donne de meilleurs performances que les modèles déterministes avec inflation en terme d’erreurs et de qualité de variance d’ensemble. Une deuxième étude a consisté à la proposition d’une procédure de calibration du bruit stochastique, visant à guider l’essaim de trajectoires vers une région d’intérêt, proche des observations. Cette procédure s’appuie sur le caractère stochastique inhérent de LU et se base sur les transformations de Girsanov. L’ajout de ce terme de guidage a mené à une amélioration significative des résultats dans le cas d’une mauvaise estimation de la condition initiale. La dernière partie de cette thèse étudie la prédiction d’ensemble sous le point de vue des espaces de Hilbert à noyau auto-repoduisant (RKHS en anglais). Dans ce contexte, l’opérateur de Koopman associé à la dynamique et son adjoint sont tous deux unitaires et uniformément continus, ce qui conduit à l’énoncé d’un théorème spectral adapté aux RKHS. Des méthodes d’assimilation de données sont conçues pour prendre en compte la structure et les propriétés des RKHS, qui justifient notamment un principe de superposition qui est largement utilisé, bien que sujet à caution, pour les filtres de Kalman d’ensemble.
|
|
/ 14-12-2023
Tran Thu le
Voir le résumé
Voir le résumé
L’optimisation convexe est fréquente en apprentissage automatique, statistiques, signal et image. La résolution de problèmes d'optimisation en grande dimension reste difficile en raison de contraintes calculatoires et de stockage. La dernière décennie, les méthodes de ''safe screening'' sont devenues un outil puissant pour réduire la dimension de ces problèmes en se basant sur la connaissance d'une ''safe region'' contenant la solution optimale duale. La première contribution de cette thèse est un cadre mathématique pour créer de nouvelles ''safe region'' tout en démontrant leur supériorité par rapport à l'état de l'art. Notre cadre offre également une manière élégante d’unifier les ''safe regions'' existantes. Cette contribution établit en particulier une base théorique pour les futures avancées dans l’étude des ''safe region''. La seconde contribution est une extension de la méthodologie de ''safe screening'' à des problèmes en dimension infinie. Nous montrons notamment que l’intégration de cette méthode dans un algorithme de l'état de l'art permet de réduire significativement sa complexité numérique tout en préservant sa propriété de convergence. Cette contribution met en évidence le potentiel du ''safe screening'' pour résoudre efficacement les défis calculatoires dans des contextes de dimension infinie.
|
|
/ 31-10-2013
Lesage Éric
Voir le résumé
Voir le résumé
Cette thèse est consacrée à l'utilisation d'information auxiliaire en théorie des sondages à l'étape de l'échantillonnage et à l'étape de l'estimation. Dans le chapitre 2, on donne une présentation des principales notions de la théorie des sondages. Au chapitre 3, on propose une extension de la famille des estimateurs par calage reposant sur l'emploi de paramètres de calage complexes. Au chapitre 4 et 5, on s'intéresse à la correction simultanée des erreurs d'échantillonnage et de non-réponse au moyen d'un calage unique. On montre qu'en dépit du fait que le calage n'utilise pas explicitement les probabilités de réponse, il est nécessaire d'écrire le modèle de réponse afin de choisir correctement la fonction de calage. A défaut, on s'expose à des estimateurs biaisés dont le biais peut dépasser le biais de l'estimateur non-ajusté. En particulier, dans le cas du calage généralisé, la variance et le biais sont amplifiés pour des variables de calage faiblement corrélées aux variables instrumentales. Au chapitre 6, on montre qu'une approche conditionnelle, par rapport au plan de sondage, permet de construire des estimateurs plus robustes aux valeurs extrêmes et aux "sauteurs de strates". Au chapitre 7, on met en évidence que la méthode du tirage réjectif de Fuller conduit un estimateur par la régression qui peut être biaisé lorsque la variable d'intérêt ne suit pas un modèle de régression linéaire en fonction des variables d'équilibrage.
|
|
/ 14-02-2014
Rais Rania
Voir le résumé
Voir le résumé
Le travail effectué dans cette thèse a consisté à analyser différents aspects mathématiques et numériques d'une stratégie de résolution des problèmes de propagation d'onde acoustique et électromagnétique en domaine extérieur. Nous nous intéressons plus particulièrement à la méthode de couplage entre éléments finis et représentation intégrale (CEFRI) où nous analysons un algorithme de résolution itérative par analogie avec une méthode de décomposition de domaine ainsi que l'utilisation de la méthode multipôles rapide (FMM). Le système à résoudre fait intervenir des opérateurs intégraux ce qui rend crucial le recours à des méthodes rapides telles que la FMM. L'analogie avec une méthode de décomposition de domaine s'obtient par extension au problème de Maxwell des résultats établis par F. Ben Belgacem et al. pour le problème de Helmholtz posé en domaine non borné. Pour cela, nous avons montré le lien entre la méthode CEFRI et la méthode de Schwarz avec recouvrement total pour la résolution du problème de Maxwell en domaine non borné. Cette relecture de la méthode CEFRI offre également une technique de préconditionnement pour les solveurs de Krylov et nous a permis d'avoir une idée préliminaire sur la convergence de ces méthodes. Ainsi, nous nous intéressons plutôt à des méthodes itératives rapides. Pour cela, nous avons mené une analyse théorique afin de montrer la convergence superlinéaire du GMRES dans une configuration sphérique. La validation de ces aspects a été réalisée par l'enrichissement de nombreux intégrants de la librairie éléments finis Mélina++, en C++.
|
|
/ 08-12-2014
Jacquemart Damien
Voir le résumé
Voir le résumé
La thèse porte sur la conception et l'analyse mathématique de méthodes de Monte Carlo fiables et précises pour l'estimation de la (très petite) probabilité qu'un processus de Markov atteigne une région critique de l'espace d'état avant un instant final déterministe. L'idée sous-jacente aux méthodes de branchement multi-niveaux étudiées ici est de mettre en place une suite emboitée de régions intermédiaires de plus en plus critiques, de telle sorte qu'atteindre une région intermédiaire donnée sachant que la région intermédiaire précédente a déjà été atteinte, n'est pas si rare. En pratique, les trajectoires sont propagées, sélectionnées et répliquées dès que la région intermédiaire suivante est atteinte, et il est facile d'estimer avec précision la probabilité de transition entre deux régions intermédiaires successives. Le biais dû à la discrétisation temporelle des trajectoires du processus de Markov est corrigé en utilisant des régions intermédiaires perturbées, comme proposé par Gobet et Menozzi. Une version adaptative consiste à définir automatiquement les régions intermédiaires, à l’aide de quantiles empiriques. Néanmoins, une fois que le seuil a été fixé, il est souvent difficile voire impossible de se rappeler où (dans quel état) et quand (à quel instant) les trajectoires ont dépassé ce seuil pour la première fois, le cas échéant. La contribution de la thèse consiste à utiliser une première population de trajectoires pilotes pour définir le prochain seuil, à utiliser une deuxième population de trajectoires pour estimer la probabilité de dépassement du seuil ainsi fixé, et à itérer ces deux étapes (définition du prochain seuil, et évaluation de la probabilité de transition) jusqu'à ce que la région critique soit finalement atteinte. La convergence de cet algorithme adaptatif à deux étapes est analysée dans le cadre asymptotique d'un grand nombre de trajectoires. Idéalement, les régions intermédiaires doivent êtres définies en terme des variables spatiale et temporelle conjointement (par exemple, comme l'ensemble des états et des temps pour lesquels une fonction scalaire de l’état dépasse un niveau intermédiaire dépendant du temps). Le point de vue alternatif proposé dans la thèse est de conserver des régions intermédiaires simples, définies en terme de la variable spatiale seulement, et de faire en sorte que les trajectoires qui dépassent un seuil précocement sont davantage répliquées que les trajectoires qui dépassent ce même seuil plus tardivement. L'algorithme résultant combine les points de vue de l'échantillonnage pondéré et du branchement multi-niveaux. Sa performance est évaluée dans le cadre asymptotique d'un grand nombre de trajectoires, et en particulier un théorème central limite est obtenu pour l'erreur d'approximation relative.
|
|
/ 01-12-2017
Horsin Romain
Voir le résumé
Voir le résumé
Cette thèse porte sur le comportement en temps long de solutions d’équations de type Vlasov, principalement le modèle Vlasov-HMF. On s’intéresse en particulier au phénomène d’amortissement Landau, prouvé mathématiquement dans divers cadres, pour plusieurs équations de type Vlasov, comme l’équation de Vlasov-Poisson ou le modèle Vlasov-HMF, et présentant certaines analogies avec le phénomène d’amortissement non visqueux pour l’équation d’Euler 2D. Les résultats qui y sont décrits sont les suivants. Le premier est un théorème d’amortissement Landau pour des solutions numériques du modèle Vlasov-HMF, obtenues par discrétisation en temps de ce dernier via des méthodes de splitting. Nous prouvons en outre la convergence des schémas numériques. Le second est un théorème d’amortissment Landau pour des solutions du modéle Vlasov-HMF linéarisé autour d’états stationnaires inhomogènes. Ce théorème est accompagné de nombreuses simulations numériques destinées à étudier numériquement le cas non-linéaire, et semblant mettre en lumière de nouveaux phénomènes. Enfin, le dernier résultat porte sur la discrétisation en temps de l’équation d’Euler 2D par un intégrateur de Crouch-Grossman symplectique. Nous prouvons la convergence du schéma.
|
|
/ 12-02-2019
Pinier Benoît
Voir le résumé
Voir le résumé
Le modèle RANS à une équation de fermeture est utilisée avec une nouvelle longueur de mélange. par interpolation, notre loi est universelle. Nous avons étendue ce résultat pour considérer les fonds rugueux. L'existence d'une solution au système d'équation associée est montrée, c'est un problème elliptique avec un terme source dans L¹. Nous utilisons le modèle "under location uncertainty" pour obtenir un profil de vitesse cohérent dans toute la couche limite turbulente. Le raisonnement que nous apportons ici lie un terme sous-grille à ce profile. Nous apportons également une estimation des variances à temps courts dans la zone visqueuse.
|
|
|<
<< Page précédente
9
10
11
12
13
14
15
Page suivante >>
>|
|
documents par page
|