Tri :
Pertinence
Date
Auteur
Titre
|
|
/ 10-12-2018
Rouffort Clément
Voir le résumé
Voir le résumé
Cette thèse est dédiée à l'étude mathématique de l'approximation de champ-moyen des gaz de bosons. En physique quantique une telle approximation est vue comme la première approche permettant d'expliquer le comportement collectif apparaissant dans les systèmes quantiques à grand nombre de particules et illustre des phénomènes fondamentaux comme la condensation de Bose-Einstein et la superfluidité. Dans cette thèse, l'exactitude de l'approximation de champ-moyen est obtenue de manière générale comme seule conséquence de principes de symétries et de renormalisations d'échelles. Nous recouvrons l'essentiel des résultats déjà connus sur le sujet et de nouveaux sont prouvés, particulièrement pour les systèmes quantiques sur réseau, incluant le modèle de Bose-Hubbard. D'autre part, notre étude établit un lien entre les équations aux hiérarchies de Gross-Pitaevskii et de Hartree, issues des méthodes BBGKY de la physique statistique, et certaines équations de transport ou de Liouville dans des espaces de dimension infinie. Résultant de cela, les propriétés d'unicité pour de telles équations aux hiérarchies sont prouvées en toute généralité utilisant seulement les caractéristiques génériques de problèmes aux valeurs initiales liés à de telles équations. Egalement, de nouveaux résultats de caractères bien posés et un contre-exemple à l'unicité d'une hiérarchie de Gross-Pitaevskii sont prouvés. L’originalité de nos travaux réside dans l'utilisation d'équations de Liouville et de puissantes techniques de transport étendues à des espaces fonctionnels de dimension infinie et jointes aux mesures de Wigner, ainsi qu'à une approche utilisant les outils de la seconde quantification. Notre contribution peut être vue comme l'aboutissement d'idées initiées par Z. Ammari, F. Nier et Q. Liard autour de la théorie de champ-moyen.
|
|
/ 13-12-2018
Cauchois Victor
Voir le résumé
Voir le résumé
Cette thèse s’intéresse à deux aspects de la cryptologie symétrique liés à l’utilisation de matrices MDS dans les couches de diffusion linéaires de primitives. Une première partie se fonde sur les conceptions de couches de diffusion linéaires de schémas de chiffrement symétrique à partir de matrices MDS. Les associations entre matrices récursives, respectivement circulantes, et polynômes sont calquées pour construire de nouvelles associations entre d’autres structures de matrices et des éléments d’anneaux de polynômes non commutatifs de Ore. À l’instar des matrices récursives et circulantes, ces structures bénéficient d’implémentations matérielles légères. Des codes de Gabidulin dérivent des méthodes de construction directe de telles matrices, optimales en termes de diffusion, proches d’involutions pour l’implémentation. La seconde partie développe une attaque par différenciation de permutations dont l’architecture s’inspire de l’AES. L’utilisation d’une couche de diffusion linéaire locale avec une matrice MDS induit une description macroscopique de la propagation de valeurs de différences à travers les étapes du chiffrement. Des chemins différentiels tronqués apparaissent, qui servent de point de départ à la conception d’attaques rebond. Les travaux présentés généralisent les attaques rebond connues à l’exploitation de chemins différentiels tronqués structurés non issus d’avalanches libres. Cette structure permet de ne pas consommer tous les degrés de libertés au cours d’une seule étape algorithmique mais de les répartir en trois étapes. Une attaque sur 11 tours d’une permutation de Grostl-512 est alors déployée.
|
|
/ 20-12-2018
Keraval Pierig
Voir le résumé
Voir le résumé
La thèse consiste en l’étude spectrale d’opérateurs partiellement semi-classiques. Quand la géométrie du problème suggère une localisation anisotrope des fonctions propres associées aux basses énergies (bord du domaine, lieu d’annulation du champs magnétique), le développement local de l’opérateur amène naturellement à une structure à double échelle. Il s'agit, via un schéma de réduction "à la Born-Oppenheimer", utilisant le formalisme du calcul pseudodifférentiel pour des symboles à valeur opérateur, de montrer l’existence d’un opérateur effectif à symbole scalaire. On en déduit ensuite des formules de Weyl pour le comptage des basses valeurs propres. Cette stratégie est appliquée : au Laplacien de Robin sur un domaine borné, en dimension quelconque et au Laplacien magnétique dans R², dans le cas où le champ magnétique s’annule sur une courbe fermée.
|
|
/ 26-02-2019
Chau Thi Tuyet Trang
Voir le résumé
Voir le résumé
Le volume des données disponibles permettant de décrire l’environnement, en particulier l’atmosphère et les océans, s’est accru à un rythme exponentiel. Ces données regroupent des observations et des sorties de modèles numériques. Les observations (satellite, in situ, etc.) sont généralement précises mais sujettes à des erreurs de mesure et disponibles avec un échantillonnage spatio-temporel irrégulier qui rend leur exploitation directe difficile. L’amélioration de la compréhension des processus physiques associée à la plus grande capacité des ordinateurs ont permis des avancées importantes dans la qualité des modèles numériques. Les solutions obtenues ne sont cependant pas encore de qualité suffisante pour certaines applications et ces méthodes demeurent lourdes à mettre en œuvre. Filtrage et lissage (les méthodes d’assimilation de données séquentielles en pratique) sont développés pour abonder ces problèmes. Ils sont généralement formalisées sous la forme d’un modèle espace-état, dans lequel on distingue le modèle dynamique qui décrit l’évolution du processus physique (état), et le modèle d’observation qui décrit le lien entre le processus physique et les observations disponibles. Dans cette thèse, nous abordons trois problèmes liés à l’inférence statistique pour les modèles espace-états: reconstruction de l’état, estimation des paramètres et remplacement du modèle dynamique par un émulateur construit à partir de données. Pour le premier problème, nous introduirons tout d’abord un algorithme de lissage original qui combine les algorithmes Conditional Particle Filter (CPF) et Backward Simulation (BS). Cet algorithme CPF-BS permet une exploration efficace de l’état de la variable physique, en raffinant séquentiellement l’exploration autour des trajectoires qui respectent le mieux les contraintes du modèle dynamique et des observations. Nous montrerons sur plusieurs modèles jouets que, à temps de calcul égal, l’algorithme CPF-BS donne de meilleurs résultats que les autres CPF et l’algorithme EnKS stochastique qui est couramment utilisé dans les applications opérationnelles. Nous aborderons ensuite le problème de l’estimation des paramètres inconnus dans les modèles espace-état. L’algorithme le plus usuel en statistique pour estimer les paramètres d’un modèle espace-état est l’algorithme EM qui permet de calculer itérativement une approximation numérique des estimateurs du maximum de vraisemblance. Nous montrerons que les algorithmes EM et CPF-BS peuvent être combinés efficacement pour estimer les paramètres d’un modèle jouet. Pour certaines applications, le modèle dynamique est inconnu ou très coûteux à résoudre numériquement mais des observations ou des simulations sont disponibles. Il est alors possible de reconstruire l’état conditionnellement aux observations en utilisant des algorithmes de filtrage/lissage dans lesquels le modèle dynamique est remplacé par un émulateur statistique construit à partir des observations. Nous montrerons que les algorithmes EM et CPF-BS peuvent être adaptés dans ce cadre et permettent d’estimer de manière non-paramétrique le modèle dynamique de l’état à partir d'observations bruitées. Pour certaines applications, le modèle dynamique est inconnu ou très coûteux à résoudre numériquement mais des observations ou des simulations sont disponibles. Il est alors possible de reconstruire l’état conditionnellement aux observations en utilisant des algorithmes de filtrage/lissage dans lesquels le modèle dynamique est remplacé par un émulateur statistique construit à partir des observations. Nous montrerons que les algorithmes EM et CPF-BS peuvent être adaptés dans ce cadre et permettent d’estimer de manière non-paramétrique le modèle dynamique de l’état à partir d'observations bruitées. Enfin, les algorithmes proposés sont appliqués pour imputer les données de vent (produit par Météo France).
|
|
/ 28-05-2019
Lemonnier Florian
Voir le résumé
Voir le résumé
Cette thèse s'intéresse à une étude des EDSR ergodiques, avec pour principal objectif leur application à l'étude du comportement en temps long de certaines EDP. Dans un premier temps, nous démontrons des résultats (qui sont déjà connus dans le cadre où l'EDS sous-jacente est à bruit additif) dans un cadre de bruit sous-jacent multiplicatif. Par la suite, l'introduction d'un nouvel aléa via un processus de Poisson nous permet de nous intéresser non plus au comportement en temps long d'une seule EDP, mais au comportement en temps long d'un système d'EDP couplées. Enfin, lorsque l'EDS sous-jacente est bruitée par un processus de Lévy, le lien est fait avec des équations intégro-différentielles partielles. L'application de ces équations à la résolution de problèmes de contrôle optimal est également présentée.
|
|
/ 05-06-2019
Ziegler Yvan
Voir le résumé
Voir le résumé
Dans cette thèse nous étudions la filtration par le poids sur la cohomologie de De Rham d’une courbe hyperelliptique C définie sur une extension finie de Qp et à réduction semi-stable. L’objectif est de fournir des algorithmes calculant explicitement, étant donné une équation de C, les bases des crans de la filtration par le poids ainsi que la matrice de l’accouplement de Poincaré. Dans le premier chapitre, nous mettons en place des outils relatifs à la cohomologie de De Rham algébrique de la courbe hyperelliptique. Nous construisons une base adaptée de la cohomologie de De Rham de C, nous établissons une formule explicite pour le cup-produit et la trace, et enfin nous proposons un algorithme calculant la matrice de l’accouplement de Poincaré. Le deuxième chapitre est consacré à la description explicite de la flèche induite par l’inclusion du tube d’un point double sur les espaces de cohomologie. C’est l’ingrédient essentiel pour pouvoir décrire la filtration par le poids sur la cohomologie de De Rham de C. À cette fin nous nous plaçons dans le cadre de la géométrie analytique à la Berkovich et nous introduisons puis développons les notions de point résiduellement singulier standard et de forme apparente de l’équation de la courbe. Dans le troisième et dernier chapitre, nous faisons la synthèse des résultats obtenus et achevons la description de la filtration par le poids. Enfin, nous donnons les algorithmes calculant les bases de Fil0 et Fil1. Pour les algorithmes obtenus dans la thèse nous proposons une implémentation en sage, ainsi que des exemples concrets sur des courbes de genre un et deux.
|
|
/ 04-07-2019
Bernier Joackim
Voir le résumé
Voir le résumé
Cette thèse est un recueil de constructions et de résultats variés autour de problèmes de résonances et de stabilités. Premièrement, on s'intéresse à la conception et à l'analyse de méthodes numériques pour des problèmes académiques tels que le problème de Dirichlet sur un segment ou l'équation de transport associée à une rotation du plan. Ensuite, on étend l'analyse linéaire classique des équations de Vlasov-Poisson autour d'états d'équilibre homogènes pour décrire des phénomènes multidimensionnels et non linéaires. Enfin, une large partie est consacrée à l'étude d'équations de Schrödinger non linéaires en dimension 1. D'une part, on étudie l'impact d'une semi-discrétisation naturelle sur les ondes solitaires progressives et la croissance des normes de Sobolev. D'autre part, on développe une nouvelle famille de formes normales permettant de décrire la dynamique des petites solutions régulières pendant des temps très longs.
|
|
/ 04-07-2019
Poinas Arnaud
Voir le résumé
Voir le résumé
Ce manuscrit est dédié à l'étude de l'estimation paramétrique d'une famille de processus ponctuels appelée processus déterminantaux. Ces processus sont utilisés afin de générer et modéliser des configurations de points possédant de la dépendance négative, dans le sens où les points ont tendance à se repousser entre eux. Plus précisément, nous étudions les propriétés asymptotiques de divers estimateurs classiques de processus déterminantaux paramétriques, stationnaires et non-stationnaires, dans les cas où l'on observe une unique réalisation d'un tel processus sur une fenêtre bornée. Ici, l'asymptotique se fait sur la taille de la fenêtre et donc, indirectement, sur le nombre de points observés. Dans une première partie, nous montrons un théorème limite central pour une classe générale de statistiques sur les processus déterminantaux. Dans une seconde partie, nous montrons une inégalité de béta-mélange générale pour les processus ponctuels que nous appliquons ensuite aux processus déterminantaux. Dans une troisième partie, nous appliquons le théorème limite central obtenu à la première partie à une classe générale de fonctions estimantes basées sur des méthodes de moments. Finalement, dans la dernière partie, nous étudions le comportement asymptotique du maximum de vraisemblance des processus déterminantaux. Nous donnons une approximation asymptotique de la log-vraisemblance qui est calculable numériquement et nous étudions la consistance de son maximum.
|
|
/ 11-07-2019
Clarenne Adrien
Voir le résumé
Voir le résumé
Dans cette thèse, on étudie le comportement asymptotique de modèles de boules aléatoires engendrées selon différents processus ponctuels, après leur avoir appliqué un changement d’échelle qui peut être vu comme un dézoom. Des théorèmes limites existent pour des processus de Poisson et on généralise ces résultats en considérant tout d’abord des boules engendrées par des processus déterminantaux, qui induisent de la répulsion entre les points. Cela permet de modéliser de nombreux phénomènes, comme par exemple la répartition des arbres dans une forêt. On s’intéresse ensuite à un cas particulier des processus de Cox, les processus shot-noise, qui présentent des amas de points, modélisant notamment la présence de corpuscules dans des nano-composites.
|
|
/ 15-07-2019
André Simon
Voir le résumé
Voir le résumé
Deux groupes sont dits élémentairement équivalents s'ils satisfont les mêmes énoncés du premier ordre dans le langage des groupes. Aux environs de l'année 1945, Tarski posa la question suivante, connue désormais comme le problème de Tarski : les groupes libres non abéliens sont-ils élémentairement équivalents ? Une réponse positive à cette fameuse question fut apportée plus d'un demi-siècle plus tard par Sela, et en parallèle par Kharlampovich et Myasnikov, comme le point d'orgue de deux volumineuses séries de travaux. Dans la foulée, Sela généralisa aux groupes hyperboliques sans torsion, dont les groupes libres sont des représentants emblématiques, les méthodes de nature géométrique qu'il avait précédemment introduites à l'occasion de son travail sur le problème de Tarski. Les résultats rassemblés ici s'inscrivent dans cette lignée, en s'en démarquant toutefois dans la mesure où ils traitent des théories du premier ordre des groupes hyperboliques en présence de torsion. Dans un premier chapitre, on démontre, entre autres, que tout groupe de type fini qui est élémentairement équivalent à un groupe hyperbolique est lui-même hyperbolique. On démontre ensuite que les groupes virtuellement libres sont presque homogènes, ce qui signifie que deux éléments qui sont indiscernables du point de vue de la logique du premier ordre sont dans la même orbite sous l'action du groupes des automorphismes du groupe ambiant, à une indétermination finie près. Enfin, on donne une classification complète des groupes virtuellement libres de type fini du point de l'équivalence élémentaire à deux quantificateurs.
|
|