|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Pertinence
Date
Auteur
Titre
|
|
/ 12-12-2019
Nguyen Duc Tho
Voir le résumé
Voir le résumé
Ce manuscrit est consacré à l'étude de la mécanique classique et la mécanique quantique en présence d'un champ magnétique. En mécanique classique, nous utilisons un Hamiltonien pour décrire la dynamique d'une particule chargée dans un domaine soumis à un champ magnétique. Nous nous intéressons ici à deux problèmes classiques de physique : le problème de confinement et le problème de scattering. Dans le cas quantique, nous étudions le problème spectral du laplacien magnétique au niveau semi-classique dans des domaines de dimension deux: sur une variété Riemanienne compacte à bord et dans ℝ ². En supposant que le champ magnétique ait un unique minimum strictement positif et non-dégénéré, nous pouvons décrire les fonctions propres par les méthodes WKB. Grâce au théorème spectral, nous pouvons estimer efficacement les vraies fonctions propres et les fonctions propres approchées localement proche du minimum du champ magnétique. Dans ℝ ², sous l'hypothèse additionnelle d'une symétrie radiale du champ magnétique, nous pouvons montrer que les fonctions propres du laplacien magnétique décroissent de manière exponentielle à l'infini avec une vitesse contrôlée par la fonction phase de la procédure WKB. De plus, les fonctions propres sont très bien approchées dans un espace à poids exponentiel.
|
|
/ 04-10-2013
Wachter-Zeh Antonia
Voir le résumé
Voir le résumé
Les code en métrique rang attirent l’attention depuis quelques années en raison de leur application possible au codage réseau linéaire aléatoire (random linear network coding), à la cryptographie à clé publique, au codage espace-temps et aux systèmes de stockage distribué. Une construction de codes algébriques en métrique rang de cardinalité optimale a été introduite par Delsarte, Gabidulin et Roth il y a quelques décennies. Ces codes sont considérés comme l’équivalent des codes de Reed – Solomon et ils sont basés sur l’évaluation de polynômes linéarisés. Ils sont maintenant appelés les codes de Gabidulin. Cette thèse traite des codes en bloc et des codes convolutifs en métrique rang avec l’objectif de développer et d’étudier des algorithmes de décodage efficaces pour ces deux classes de codes. Après une introduction dans le chapitre 1, le chapitre 2 fournit une introduction rapide aux codes en métrique rang et leurs propriétés. Dans le chapitre 3, on considère des approches efficaces pour décoder les codes de Gabidulin. Lapremière partie de ce chapitre traite des algorithmes rapides pour les opérations sur les polynômes linéarisés. La deuxième partie de ce chapitre résume tout d’abord les techniques connues pour le décodage jusqu’à la moitié de la distance rang minimale (bounded minimum distance decoding) des codes de Gabidulin, qui sont basées sur les syndromes et sur la résolution d’une équation clé. Ensuite, nous présentons et nous prouvons un nouvel algorithme efficace pour le décodage jusqu’à la moitié de la distance minimale des codes de Gabidulin. Le chapitre 4 est consacré aux codes de Gabidulin entrelacés et à leur décodage au-delà de la moitié de la distance rang minimale. Dans ce chapitre, nous décrivons d’abord les deux approches connues pour le décodage unique et nous tirons une relation entre eux et leurs probabilités de défaillance. Ensuite, nous présentons un nouvel algorithme de décodage des codes de Gabidulin entrelacés basé sur l’interpolation des polynômes linéarisés. Nous prouvons la justesse de ses deux étapes principales — l’interpolation et la recherche des racines — et montrons que chacune d’elles peut être effectuée en résolvant un système d’équations linéaires. Jusqu’à présent, aucun algorithme de décodage en liste en temps polynomial pour les codes de Gabidulin n’est connu et en fait il n’est même pas clair que cela soit possible. Cela nous a motivé à étudier, dans le chapitre 5, les possibilités du décodage en liste en temps polynomial des codes en métrique rang. Cette analyse est effectuée par le calcul de bornes sur la taille de la liste des codes en métriques rang en général et des codes de Gabidulin en particulier. Étonnamment, les trois nouvelles bornes révèlent toutes un comportement des codes en métrique rang qui est complètement différent de celui des codes en métrique de Hamming. Enfin, dans le chapitre 6, on introduit des codes convolutifs en métrique rang. Ce qui nous motive à considérer ces codes est le codage réseau linéaire aléatoire multi-shot, où le réseau inconnu varie avec le temps et est utilisé plusieurs fois. Les codes convolutifs créent des dépendances entre les utilisations différentes du réseau aun de se adapter aux canaux difficiles. Basé sur des codes en bloc en métrique rang (en particulier les codes de Gabidulin), nous donnons deux constructions explicites des codes convolutifs en métrique rang. Les codes en bloc sous-jacents nous permettent de développer un algorithme de décodage des erreurs et des effacements efficace pour la deuxième construction, qui garantit de corriger toutes les séquences d’erreurs de poids rang jusqu’à la moitié de la distance rang active des lignes. Un résumé et un aperçu des problèmes futurs de recherche sont donnés à la fin de chaque chapitre. Finalement, le chapitre 7 conclut cette thèse.
|
|
/ 20-10-2017
Hristova Hristina
Voir le résumé
Voir le résumé
Les contributions de cette thèse sont divisées en trois parties principales. Dans la partie 1, nous proposons une méthode locale utilisant une distribution GGM pour approcher les distributions des images en les subdivisant en groupe de pixels que nous appelons dorénavant clusters. L'idée principale consiste à déterminer quelle caractéristique (couleur, luminance) est plus représentative pour une image donnée. Puis nous utilisons cette caractéristique pour subdiviser l'image en clusters. Quatre stratégies de mise en correspondance des clusters de l'image d'entrée avec ceux de l'image cible sont proposées. Ces stratégies ont pour but de produire des images photoréalistes dont le style ressemble à celui de l'image cible (dans notre cas le style d'une image est défini en termes de couleur et luminosité). Nous étendons le principe de transfert de couleur au transfert simultané de couleur et de gradient. Afin de pouvoir décrire las distributions de couleur et de gradient par une seule distribution, nous adoptons le modèle MGGD (multivariate generalized Gaussian distributions). Nous proposons une nouvelle transformation de distribution MGGD pour des applications de traitement d'image telles que le transfert multi-dimensionnel de caractéristiques d'image, de couleur, etc. De plus, nous adoptons aussi un modèle de distribution plus précis (distribution Beta bornée) pour représenter des distributions de couleur et de luminosité. Nous proposons une transformation de distribution Beta qui permet d'effectuer un transfert de couleur entre images et qui s'avère plus performante que celles basées sur les distributions Gaussiennes. Dans la partie 2, nous introduisons une nouvelle méthode permettant de créer des images HDR à partir d'une paire d'images, l'une prise avec flash et l'autre pas. Notre méthode consiste en l'utilisation d'une fonction de luminosité (brightness) simulant la fonction de réponse d'une caméra, et d'une nouvelle fonction d'adaptation de couleur (CAT), appelée CAT bi-locale (bi-local CAT), permettant de reproduire les détails de l'image flash. Cette approche évite toutes les limitations inhérentes aux méthodes classiques de création d'images HDR. Dans la partie 3, nous exploitons le potentiel de notre adaptation bi-locale CAT pour diverses applications d'édition d'image telles que la suppression de bruit (dé-bruitage), suppression de flou, transfert de texture, etc. Nous introduisons notre nouveau filtre guidé dans lequel nous incorporons l'adaptation bi-locale CAT dans la partie 3.
|
|
/ 14-12-2021
Nguyen Van Hoi
Voir le résumé
Voir le résumé
Cette thèse porte sur l’étude de la modélisation mathématique d’un milieu matériel potentiellement défectueux dans le cadre de la géométrie différentielle. Il est couramment admis que la modélisation des milieux à défauts est étroitement en lien avec l’étude des variétés de Riemann-Cartan. Dans ce cadre, les tenseurs de torsion et de courbure sont interprétés comme des densités de dislocations et de disclinations. C'est la raison pour laquelle notre attention s’est concentrée sur la formulation de telles variétés mais aussi sur l’observation de l'évolution des défauts au cours d'une transformation. Deux modèles sont présentés, ils sont basés sur une géométrie (de variétés) de Riemann-Cartan associée à une variété de base ou à une structure de fibré. La seconde approche possède des caractéristiques plus avantageuses dans le sens ou elle permet d’inclure une large classe de matériaux en illustrant des phénomènes à plusieurs échelles. Comme, nous nous concentrons uniquement sur des transformations lisses de variétés lisses les modèles s’adaptent facilement à une exploitation numérique. C’est l’occasion d’étudier numériquement et théoriquement l'influence de la micro-structure sur la macro-structure qui est pris en compte à travers un facteur d'échelle. Enfin, nous montrerons des nouvelles théories motivent plusieurs problèmes en mathématiques et en mécanique.
|
|
/ 12-07-2023
Legaspi Juanatey Xabier
Voir le résumé
Voir le résumé
L'objectif de cette thèse est d'obtenir une meilleure compréhension du comportement des taux de croissance exponentiels au sein de la classe des groupes qui agissent de manière acylindrique dans un espace hyperbolique au sens de Gromov. Pour ce faire, nous aborderons deux problèmes de nature différente. Dans le premier problème, nous étudierons les taux de croissance exponentiels des sous-groupes quasi-convexes. Nous comparerons ces taux avec celui du groupe ambiant et nous déterminerons quand il est possible d'obtenir une égalité/inégalité stricte. Pour ce faire, nous allons exploiter des actions propres sur des espaces métriques, a priori, non hyperboliques, mais dont les isométries se comportent comme les isométries loxodromiques d'un espace hyperbolique. Le deuxième problème tourne autour de la croissance exponentielle uniforme uniforme. Nous prouverons que cette propriété est préservée si nous prenons des quotients à petite simplification de groupes qui agissent de manière acylindrique sur un espace hyperbolique. En corollaire, nous obtiendrons qu'il existe une borne inférieure universelle sur le taux de croissance exponentielle uniforme pour la famille des quotients à petite simplification classique. Cette borne ne dépend que d'un des deux paramètres d'acylindricité.
|
|
/ 24-03-2021
Ben Ali Mohamed Yacine
Voir le résumé
Voir le résumé
Dans cette thèse, nous étudions la modélisation de Navier-Stokes moyennée par Reynolds (RANS) avec modèle de fermeture dans le cadre d'assimilation de données variationnelle (VDA) prédictif des écoulements du vent autour de grandes structures. Les données considérées proviennent uniquement des mesures de pression pariétale menées dans des expériences en soufflerie. Ceci constitue une première étape vers l'application du VDA à des situations pratiques de l'ingénierie du vent où les mesures en volume de l'écoulement ne sont généralement pas abordables. La technique VDA est écrite comme un problème d'optimisation, que nous résolvons en utilisant la méthode adjointe. Une attention particulière est accordée à la dérivation du modèle de turbulence adjoint et de la loi de paroi adjointe. La méthodologie adjointe est utilisée dans cette thèse pour répondre à deux objectifs particuliers. D'une part, nous étudions un cadre méthodologique permettant un diagnostic approfondi de la fermeture de turbulence. Cela va de l'analyse des champs adjointe à l'analyse de sensibilité des coefficients et ensuite à leur calibration. D'autres part, visant un couplage efficace entre le modèle et les données, nous considérons la méthode comme un outil de reconstruction de l’écoulement. Dans cette optique, nous avons considéré une assimilation dite sous contrainte faible par intégration de nouveaux termes permettant de corriger les erreurs de modélisation. En diagnostic, l'analyse de sensibilité a révélé un grand intérêt pour l'optimisation des coefficients davantage au niveau des couches de cisaillement résultant de la séparation et moins dans la région de sillage. Dans la calibration, la validité de certaines hypothèses de modélisation a été explorée en observant l'effet de relâchement des relations entre les coefficients. L'application de la contrainte qui assimile le mélange d'énergie de turbulence au mélange d'impulsion a conduit à un meilleur accord avec les données. Par ailleurs, il a été souligné qu'une telle fermeture de turbulence est trop rigide pour permettre à la solution s'écarter de son espace de base. En reconstruction, nous avons considéré des termes de forçage additif qui peuvent agir sur les équations de quantité de mouvement et/ou sur les équations de turbulence. Avec des observations parcimonieuses, le champ de sensibilité est généralement peu régulier pour des paramètres distribués, une projection sur un espace de fonctions plus régulières comme l'espace de Sobolev est proposée. Il a été démontré que cela conduit à une procédure d'assimilation des données très efficace car elle améliore la direction de descente et fournit un mécanisme de régularisation utile. En résultats, nous montrons que le forçage sur l'équation de la quantité de mouvement permet d'agir efficacement à proximité des capteurs pour corriger la pression, et se trouve en situation de sur-ajustement. Cela peut être amélioré en multipliant préalablement le forçage par le gradient de l'énergie cinétique. Au contraire, agir sur l'équation de transport du taux de dissipation de turbulences améliore la diffusion turbulente qui amène une réduction significative de la longueur de recirculation, mais avec une pénalité en termes de contrôlabilité. Enfin, nous montrons que des reconstructions d’écoulement plus précises peuvent être effectuées en combinant les deux stratégies.
|
|
/ 11-10-2019
aDíaz Arboleda Juan Sebastián
Voir le résumé
Voir le résumé
Le texte commence par une brève description de théorie différentielle de Galois dans une perspective géométrique. Ensuite, la théorie paramétrée de Galois est développée au moyen d’une prolongation des connexions partielles avec les fibrés de jets. La relation entre les groupes de Galois différentiels a paramètres et les déformations isomonodromiques est développée comme une application du théorème de Kiso-Cassidy. Il s’ensuit le calcul des groupes de Galois a paramètres de l’équation générale fuchsienne et de l’équation hypergéométrique de Gauss. Enfin, certaines applications non linéaires sont développées. Au moyen d’un théorème de Kiso-Morimoto, un analogue non linéaire, on calcule le groupoïde de Malgrange de l’équation de Painlevé VI à paramètres variables.
|
|
/ 06-09-2019
Cui Peiyi
Voir le résumé
Voir le résumé
Fixons un nombre premier p. Soit k un corps algébriquement clos de caractéristique l différent que p. Nous construisons les k-types maximaux simples cuspidaux des sous-groupes de Levi M' de SL_n(F), où F est un corps local non archimédien de caractéristique résiduelle p. Nous montrons que le support supercuspidal des k-représentations lisses irréductibles de M' est unique à M'-conjugaison près, quand F est soit un corps fini de caractéristique p soit un corps local non-archimédien de caractéristique résiduelle p.
|
|
/ 26-02-2019
Chau Thi Tuyet Trang
Voir le résumé
Voir le résumé
Le volume des données disponibles permettant de décrire l’environnement, en particulier l’atmosphère et les océans, s’est accru à un rythme exponentiel. Ces données regroupent des observations et des sorties de modèles numériques. Les observations (satellite, in situ, etc.) sont généralement précises mais sujettes à des erreurs de mesure et disponibles avec un échantillonnage spatio-temporel irrégulier qui rend leur exploitation directe difficile. L’amélioration de la compréhension des processus physiques associée à la plus grande capacité des ordinateurs ont permis des avancées importantes dans la qualité des modèles numériques. Les solutions obtenues ne sont cependant pas encore de qualité suffisante pour certaines applications et ces méthodes demeurent lourdes à mettre en œuvre. Filtrage et lissage (les méthodes d’assimilation de données séquentielles en pratique) sont développés pour abonder ces problèmes. Ils sont généralement formalisées sous la forme d’un modèle espace-état, dans lequel on distingue le modèle dynamique qui décrit l’évolution du processus physique (état), et le modèle d’observation qui décrit le lien entre le processus physique et les observations disponibles. Dans cette thèse, nous abordons trois problèmes liés à l’inférence statistique pour les modèles espace-états: reconstruction de l’état, estimation des paramètres et remplacement du modèle dynamique par un émulateur construit à partir de données. Pour le premier problème, nous introduirons tout d’abord un algorithme de lissage original qui combine les algorithmes Conditional Particle Filter (CPF) et Backward Simulation (BS). Cet algorithme CPF-BS permet une exploration efficace de l’état de la variable physique, en raffinant séquentiellement l’exploration autour des trajectoires qui respectent le mieux les contraintes du modèle dynamique et des observations. Nous montrerons sur plusieurs modèles jouets que, à temps de calcul égal, l’algorithme CPF-BS donne de meilleurs résultats que les autres CPF et l’algorithme EnKS stochastique qui est couramment utilisé dans les applications opérationnelles. Nous aborderons ensuite le problème de l’estimation des paramètres inconnus dans les modèles espace-état. L’algorithme le plus usuel en statistique pour estimer les paramètres d’un modèle espace-état est l’algorithme EM qui permet de calculer itérativement une approximation numérique des estimateurs du maximum de vraisemblance. Nous montrerons que les algorithmes EM et CPF-BS peuvent être combinés efficacement pour estimer les paramètres d’un modèle jouet. Pour certaines applications, le modèle dynamique est inconnu ou très coûteux à résoudre numériquement mais des observations ou des simulations sont disponibles. Il est alors possible de reconstruire l’état conditionnellement aux observations en utilisant des algorithmes de filtrage/lissage dans lesquels le modèle dynamique est remplacé par un émulateur statistique construit à partir des observations. Nous montrerons que les algorithmes EM et CPF-BS peuvent être adaptés dans ce cadre et permettent d’estimer de manière non-paramétrique le modèle dynamique de l’état à partir d'observations bruitées. Pour certaines applications, le modèle dynamique est inconnu ou très coûteux à résoudre numériquement mais des observations ou des simulations sont disponibles. Il est alors possible de reconstruire l’état conditionnellement aux observations en utilisant des algorithmes de filtrage/lissage dans lesquels le modèle dynamique est remplacé par un émulateur statistique construit à partir des observations. Nous montrerons que les algorithmes EM et CPF-BS peuvent être adaptés dans ce cadre et permettent d’estimer de manière non-paramétrique le modèle dynamique de l’état à partir d'observations bruitées. Enfin, les algorithmes proposés sont appliqués pour imputer les données de vent (produit par Météo France).
|
|
/ 13-10-2020
Nguyen Thi Hoai Thuong
Voir le résumé
Voir le résumé
Ce travail est consacré à l’étude théorique et numérique de systèmes hyperboliques d’équations aux dérivées partielles et aux équations de transport, avec des termes de relaxation et des conditions aux bords. Dans la première partie, on étudie la stabilité raide d’approximations numériques par différences finies du problème mixte donnée initiale-donnée au bord pour l’équation des ondes amorties dans le quart de plan. Dans le cadre du schéma discret en espace, nous proposons deux méthodes de discrétisation de la condition de Dirichlet. La première est la technique de sommation par partie et la seconde est basée sur le concept de condition au bord transparente. Nous proposons également une comparaison numérique des deux méthodes, en particulier de leur domaine de stabilité. La deuxième partie traite de schémas numériques d’ordre élevé pour l’équation de transport avec une donnée entrante sur domaine borné. Nous construisons, implémentons et analysons la procédure de Lax-Wendroff inverse au bord entrant. Nous obtenons des taux de convergence optimaux en combinant des estimations de stabilité précises pour l’extrapolation des conditions au bord avec des développements de couche limite numérique. Dans la dernière partie, nous étudions la stabilité de solutions stationnaires pour des systèmes non conservatifs avec des termes géométrique et de relaxation. Nous démontrons que les solutions stationnaires sont stables parmi les solutions entropique processus, qui généralisent le concept de solutions entropiques faibles. Nous supposons essentiellement que le système est complété par une entropie partiellement convexe et que, selon la dissipation du terme de relaxation, la stabilité ou la stabilité asymptotique des solutions stationnaires est obtenue.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|