|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|
Tri :
Pertinence
Date
Auteur
Titre
|
|
/ 05-06-2019
Ziegler Yvan
Voir le résumé
Voir le résumé
Dans cette thèse nous étudions la filtration par le poids sur la cohomologie de De Rham d’une courbe hyperelliptique C définie sur une extension finie de Qp et à réduction semi-stable. L’objectif est de fournir des algorithmes calculant explicitement, étant donné une équation de C, les bases des crans de la filtration par le poids ainsi que la matrice de l’accouplement de Poincaré. Dans le premier chapitre, nous mettons en place des outils relatifs à la cohomologie de De Rham algébrique de la courbe hyperelliptique. Nous construisons une base adaptée de la cohomologie de De Rham de C, nous établissons une formule explicite pour le cup-produit et la trace, et enfin nous proposons un algorithme calculant la matrice de l’accouplement de Poincaré. Le deuxième chapitre est consacré à la description explicite de la flèche induite par l’inclusion du tube d’un point double sur les espaces de cohomologie. C’est l’ingrédient essentiel pour pouvoir décrire la filtration par le poids sur la cohomologie de De Rham de C. À cette fin nous nous plaçons dans le cadre de la géométrie analytique à la Berkovich et nous introduisons puis développons les notions de point résiduellement singulier standard et de forme apparente de l’équation de la courbe. Dans le troisième et dernier chapitre, nous faisons la synthèse des résultats obtenus et achevons la description de la filtration par le poids. Enfin, nous donnons les algorithmes calculant les bases de Fil0 et Fil1. Pour les algorithmes obtenus dans la thèse nous proposons une implémentation en sage, ainsi que des exemples concrets sur des courbes de genre un et deux.
|
|
/ 23-07-2020
Zhao Shengyuan
Voir le résumé
Voir le résumé
Dans ce mémoire de thèse je considère une généralisation des groupes kleiniens en géométrie algébrique complexe. Le problème peut aussi être vu comme l'uniformisation des variétés projectives complexes sous une hypothèse algébrico-géométrique sur l'action du groupe de revêtement. Je donne une classification des groupes kleiniens birationnels en dimension deux. Il s'agit d'une interaction entre les transformations birationnelles des surfaces, les groupes de Kähler, les feuilletages holomorphes sur des surfaces complexes, et les espaces de Teichmüller.
|
|
/ 04-10-2013
Wachter-Zeh Antonia
Voir le résumé
Voir le résumé
Les code en métrique rang attirent l’attention depuis quelques années en raison de leur application possible au codage réseau linéaire aléatoire (random linear network coding), à la cryptographie à clé publique, au codage espace-temps et aux systèmes de stockage distribué. Une construction de codes algébriques en métrique rang de cardinalité optimale a été introduite par Delsarte, Gabidulin et Roth il y a quelques décennies. Ces codes sont considérés comme l’équivalent des codes de Reed – Solomon et ils sont basés sur l’évaluation de polynômes linéarisés. Ils sont maintenant appelés les codes de Gabidulin. Cette thèse traite des codes en bloc et des codes convolutifs en métrique rang avec l’objectif de développer et d’étudier des algorithmes de décodage efficaces pour ces deux classes de codes. Après une introduction dans le chapitre 1, le chapitre 2 fournit une introduction rapide aux codes en métrique rang et leurs propriétés. Dans le chapitre 3, on considère des approches efficaces pour décoder les codes de Gabidulin. Lapremière partie de ce chapitre traite des algorithmes rapides pour les opérations sur les polynômes linéarisés. La deuxième partie de ce chapitre résume tout d’abord les techniques connues pour le décodage jusqu’à la moitié de la distance rang minimale (bounded minimum distance decoding) des codes de Gabidulin, qui sont basées sur les syndromes et sur la résolution d’une équation clé. Ensuite, nous présentons et nous prouvons un nouvel algorithme efficace pour le décodage jusqu’à la moitié de la distance minimale des codes de Gabidulin. Le chapitre 4 est consacré aux codes de Gabidulin entrelacés et à leur décodage au-delà de la moitié de la distance rang minimale. Dans ce chapitre, nous décrivons d’abord les deux approches connues pour le décodage unique et nous tirons une relation entre eux et leurs probabilités de défaillance. Ensuite, nous présentons un nouvel algorithme de décodage des codes de Gabidulin entrelacés basé sur l’interpolation des polynômes linéarisés. Nous prouvons la justesse de ses deux étapes principales — l’interpolation et la recherche des racines — et montrons que chacune d’elles peut être effectuée en résolvant un système d’équations linéaires. Jusqu’à présent, aucun algorithme de décodage en liste en temps polynomial pour les codes de Gabidulin n’est connu et en fait il n’est même pas clair que cela soit possible. Cela nous a motivé à étudier, dans le chapitre 5, les possibilités du décodage en liste en temps polynomial des codes en métrique rang. Cette analyse est effectuée par le calcul de bornes sur la taille de la liste des codes en métriques rang en général et des codes de Gabidulin en particulier. Étonnamment, les trois nouvelles bornes révèlent toutes un comportement des codes en métrique rang qui est complètement différent de celui des codes en métrique de Hamming. Enfin, dans le chapitre 6, on introduit des codes convolutifs en métrique rang. Ce qui nous motive à considérer ces codes est le codage réseau linéaire aléatoire multi-shot, où le réseau inconnu varie avec le temps et est utilisé plusieurs fois. Les codes convolutifs créent des dépendances entre les utilisations différentes du réseau aun de se adapter aux canaux difficiles. Basé sur des codes en bloc en métrique rang (en particulier les codes de Gabidulin), nous donnons deux constructions explicites des codes convolutifs en métrique rang. Les codes en bloc sous-jacents nous permettent de développer un algorithme de décodage des erreurs et des effacements efficace pour la deuxième construction, qui garantit de corriger toutes les séquences d’erreurs de poids rang jusqu’à la moitié de la distance rang active des lignes. Un résumé et un aperçu des problèmes futurs de recherche sont donnés à la fin de chaque chapitre. Finalement, le chapitre 7 conclut cette thèse.
|
|
/ 17-06-2013
Wacheux Christophe
Voir le résumé
Voir le résumé
Les systèmes intégrables toriques sont des systèmes intégrables dont toutes les composantes de l'application moment sont périodiques de même période. Il s'agit donc de variétés symplectiques munies d'actions Hamiltoniennes de tores. Au début des années 80, Atiyah-Guillemin-Sternberg ont démontré que l'image de l'application moment était un polytope convexe à face rationnelles. Peu de temps après, Delzant a démontré que dans le cas intégrable qui nous intéresse, ce polytope caractérisait entièrement le système : la variété symplectique comme l'action du tore. Le champs d'étude s'est ensuite élargi aux systèmes dits semi-toriques. Ce sont des systèmes intégrables dont toutes les composantes de l'application moment sauf une sont périodiques de même période. En outre, pour simplifier l'étude de ces systèmes, on demande que tous les points critiques du systèmes soient non-dégénérés, et sans composante hyperbolique pour la hessienne. En revanche les points critiques des systèmes semi-toriques peuvent comporter des composantes dites "foyer-foyer". Celles-ci ont une dynamique plus riche que les singularités elliptiques, mais conservent certaines propriétés qui rendent leur analyse plus aisée que les singularités hyperboliques. San Vu-Ngoc et Alvaro Pelayo ont réussi à étendre pour ces systèmes semi-toriques les résultats d'Atiyah-Guillemin-Sternberg et Delzant en dimension 2. L'objectif de cette thèse est de proposer une extension de ces résultats en dimension quelconque, à commencer par la dimension 3. Les techniques utilisées relèvent de l'analyse comme de la géométrie symplectique, ainsi que de la théorie de Morse dans des espaces différentiels stratifiés.
|
|
/ 18-12-2020
Vu Thi Minh Phuong
Voir le résumé
Voir le résumé
Soit X une variété rigide analytique lisse sur un corps non-archimédien complet de valuation discrète K de caractéristique mixte (0; p) et G un groupe p-adique qui agit continûment sur X. Le but de cette thèse est de développer une notion d'holonomicité faible pour des D-modules G-équivariants coadmissibles X. Nous donnerons dans ce qui suit un résumé pour chaque chapitre. Après avoir introduit la théorie des D-modules sur les espaces rigides analytiques et résumé les résultats principaux de la thèse dans le premier chapitre, nous rappelons dans le deuxième chapitre quelques notions et propriétés de base de la géométrie rigide analytique et du groupes de Lie p-adique, puis nous résumons quelques résultats importants de la théorie des D-modules
G-équivariant coadmissibles sur X. Dans le troisième chapitre, nous développons une théorie de dimension pour les D(X;G)-modules coadmissibles. Pour ce fait, nous montrons tout d'abord que la K-algèbre D(X;G) est coadmissiblement Auslander-Gorenstein de dimension au plus 2dimX. Ceci nous permet de définir correctement la fonction de dimension sur la catégorie des D(X;G)-modules coadmissibles. La quatrième partie de la thèse est consacrée la construction des foncteurs appelés Ext-foncteurs E^i pour tous i et aussi l'étude de l'holonomicité faible pour des D-modules G-équivariants coadmissibles. Dans la première partie de ce chapitre, nous allons travailler sur de nombreuses propositions techniques afin de définir, pour chaque i , le foncteur E^i sur la catégorie C des D-modules G-quivariant coadmissibles. Dans la deuxième partie du chapitre 4, nous définissons la notion de dimension d'un D-module G-équivariant coadmissible et nous prouvons que l'inégalité de Bernstein est vraie pour le cas des variétés de drapeaux rigides analytiques. Cela nous permet de définir une holonomicité faible dans ce cadre. Nous allons également montrer qu'il existe un foncteur de dualité D sur la catégorie des D-modules équivariants faiblement holonomes. Dans le dernier chapitre, nous présentons quelques exemples typiques de D-modules G-équivariants faiblement holonomes. Nous prouvons que l'extension de toute connexion intégrable équivariante est faiblement holonome. En particulier, nous montrons que le faisceau structural OX est un D- module G-équivariant faiblement holonæme. Le deuxième exemple vient du cas où X est une variété de drapeaux rigide analytique associée un groupe algébrique connexe déployé G sur K. Dans ce cas, nous montrons que la localisation d'un module d'Orlik-Strauch est un D-module G-équivariant faiblement holonome.
|
|
/ 11-07-2016
Vital Clément
Voir le résumé
Voir le résumé
Le but de cette thèse était d'explorer la thématique du scoring dans le cadre de son utilisation dans le monde bancaire, et plus particulièrement pour contrôler le risque de crédit. En effet, la diversification et la globalisation des activités bancaires dans la deuxième moitié du XXe siècle ont conduit à l'instauration d'un certain nombre de régulations, afin de pouvoir s'assurer que les établissements bancaires disposent de capitaux nécessaires à couvrir le risque qu'ils prennent. Cette régulation impose ainsi la modélisation de certains indicateurs de risque, dont la probabilité de défaut, qui est pour un prêt en particulier la probabilité que le client se retrouve dans l'impossibilité de rembourser la somme qu'il doit. La modélisation de cet indicateur passe par la définition d'une variable d'intérêt appelée critère de risque, dénotant les "bons payeurs" et les "mauvais payeurs". Retranscrit dans un cadre statistique plus formel, cela signifie que nous cherchons à modéliser une variable à valeurs dans {0,1} par un ensemble de variables explicatives. Cette problématique est en pratique traitée comme une question de scoring. Le scoring consiste en la définition de fonction, appelées fonctions de score, qui retransmettent l'information contenue dans l'ensemble des variables explicatives dans une note de score réelle. L'objectif d'une telle fonction sera de donner sur les individus le même ordonnancement que la probabilité a posteriori du modèle, de manière à ce que les individus ayant une forte probabilité d'être "bons" aient une note élevée, et inversement que les individus ayant une forte probabilité d'être "mauvais" (et donc un risque fort pour la banque) aient une note faible. Des critères de performance tels que la courbe ROC et l'AUC ont été définis, permettant de quantifier à quel point l'ordonnancement produit par la fonction de score est pertinent. La méthode de référence pour obtenir des fonctions de score est la régression logistique, que nous présentons ici. Une problématique majeure dans le scoring pour le risque de crédit est celle de la sélection de variables. En effet, les banques disposent de larges bases de données recensant toutes les informations dont elles disposent sur leurs clients, aussi bien sociodémographiques que comportementales, et toutes ne permettent pas d'expliquer le critère de risque. Afin d'aborder ce sujet, nous avons choisi de considérer la technique du Lasso, reposant sur l'application d'une contrainte sur les coefficients, de manière à fixer les valeurs des coefficients les moins significatifs à zéro. Nous avons envisagé cette méthode dans le cadre des régressions linéaires et logistiques, ainsi qu'une extension appelée Group Lasso, permettant de considérer les variables explicatives par groupes. Nous avons ensuite considéré le cas où la variable réponse n'est plus binaire, mais polytomique, c'est-à-dire avec plusieurs niveaux de réponse possibles. La première étape a été de présenter une définition du scoring équivalente à celle présentée précédemment dans le cas binaire. Nous avons ensuite présenté différentes méthodes de régression adaptées à ce nouveau cas d'étude : une généralisation de la régression logistique binaire, des méthodes semi-paramétriques, ainsi qu'une application à la régression logistique polytomique du principe du Lasso. Enfin, le dernier chapitre est consacré à l'application de certaines des méthodes évoquées dans le manuscrit sur des jeux de données réelles, permettant de les confronter aux besoins réels de l'entreprise.
|
|
/ 03-07-2015
Vaccon Tristan
Voir le résumé
Voir le résumé
Les nombres p-adiques sont un analogue des nombres réels plus proche de l’arithmétique. L’avènement ces dernières décennies de la géométrie arithmétique a engendré la création de nombreux algorithmes utilisant ces nombres. Ces derniers ne peuvent être de manière générale manipulés qu’à précision finie. Nous proposons une méthode, dite de précision différentielle, pour étudier ces problèmes de précision. Elle permet de se ramener à un problème au premier ordre. Nous nous intéressons aussi à la question de savoir quelles bases de Gröbner peuvent être calculées sur les p-adiques.
|
|
/ 28-09-2017
Urech Christian
Voir le résumé
Voir le résumé
Le groupe de Cremona en n variables Cr_n(C) est le groupe des transformations birationnelles de l'espace projectif complexe de dimension n. Dans cette thèse, on étudie les groupes de Cremona en considérant certaines classes de „grands'' sous-groupes. Dans la première partie on considère des plongements algébriques de Cr_2(C) vers Cr_n(C). On décrit notamment quelques propriétés géométriques d'un plongement de Cr_2(C) dans Cr_5(C) dû à Gizatullin. En outre, on classifie tous les plongements algébriques de Cr_2(C) dans Cr_3(C) et on généralise ce résultat partiellement pour les plongements de Cr_n(C) dans Cr_{n+1}(C). Dans la deuxième partie, on regarde les suites des degrés des transformations birationnelles des variétés définies sur un corps quelconque. On montre qu'il n'existe qu'un nombre dénombrable de telles suites et on donne de nouvelles contraintes sur la croissance des degrés des automorphismes de l'espace affine de dimension n. Dans la troisième partie, on classifie les sous-groupes de Cr_2(C) qui ne contiennent que des éléments elliptiques, c'est-`a-dire des éléments dont les degrés des itérés sont bornés. On en déduit notamment l'alternative de Tits pour les sous-groupes quelconques de Cr_2(C). Dans la dernière partie on montre que tous les sous-groupes simples de type fini de Cr_2(C) sont finis et, sous l'hypothèse d'un lemme conjectural, qu'un groupe simple se plonge dans Cr_2(C) si et seulement s'il se plonge dans PGL_3(C).
|
|
/ 08-12-2021
Trémant Léopold
Voir le résumé
Voir le résumé
Les problèmes à relaxation rapide apparaissent dans de nombreux systèmes physiques ou biologiques, notamment dans le cadre de modèles cinétiques avec collisions. Leur comportement mélange une dynamique de relaxation de temps caractéristique epsilon et une partie lente d'interactions (généralement non-linéaire) ou de transport. Malgré le développement depuis les années 1980 de méthodes de résolution adaptées peu coûteuses (i.e. stables et essentiellement explicites), un problème demeure: la précision des méthodes est dégradée lorsque le pas de discrétisation est d'ordre epsilon. Dans ce manuscrit, on présente une méthode pour dépasser cette limite. L'approche mise en œuvre consiste à effectuer des développements asymptotiques par rapport au paramètre epsilon de sorte à pouvoir séparer le modèle asymptotique et son erreur; on parle alors d'un problème micro-macro. Ce nouveau problème peut être résolu numériquement et on reconstruit la solution du problème d'origine avec une précision indépendante du paramètre epsilon. Nos développements asymptotiques font appel à des résultats récents de moyennisation, si bien qu'un chapitre de ce manuscrit est dédié à l'exposition de preuves originales de certains résultats de moyennisation connus. On discute en outre d'extensions possibles de nos résultats.
|
|
/ 14-12-2023
Tran Thu le
Voir le résumé
Voir le résumé
L’optimisation convexe est fréquente en apprentissage automatique, statistiques, signal et image. La résolution de problèmes d'optimisation en grande dimension reste difficile en raison de contraintes calculatoires et de stockage. La dernière décennie, les méthodes de ''safe screening'' sont devenues un outil puissant pour réduire la dimension de ces problèmes en se basant sur la connaissance d'une ''safe region'' contenant la solution optimale duale. La première contribution de cette thèse est un cadre mathématique pour créer de nouvelles ''safe region'' tout en démontrant leur supériorité par rapport à l'état de l'art. Notre cadre offre également une manière élégante d’unifier les ''safe regions'' existantes. Cette contribution établit en particulier une base théorique pour les futures avancées dans l’étude des ''safe region''. La seconde contribution est une extension de la méthodologie de ''safe screening'' à des problèmes en dimension infinie. Nous montrons notamment que l’intégration de cette méthode dans un algorithme de l'état de l'art permet de réduire significativement sa complexité numérique tout en préservant sa propriété de convergence. Cette contribution met en évidence le potentiel du ''safe screening'' pour résoudre efficacement les défis calculatoires dans des contextes de dimension infinie.
|
|
|<
<< Page précédente
1
2
3
4
5
6
Page suivante >>
>|
|
documents par page
|